이찬규 본지 논설위원/중앙대 국어국문학과 교수(인공지능인문학연구단장)

이찬규 본지 논설위원/중앙대 국어국문학과 교수(인공지능인문학연구단장)
이찬규 본지 논설위원/중앙대 국어국문학과 교수(인공지능인문학연구단장)

인간은 무려 800만년에 걸쳐 천천히 진화해 오늘에 이르렀다. 하지만, 현재까지 인간의 뇌와 가장 유사한 기계인 AI는 1959년 개념이 만들어진 이래 불과 60년 만에 일부 인간을 넘어서는 기능을 갖게 됐다. 

놀라운 속도와 미래 전망으로 인해 AI는 평범하게 살아가는 사람들에게 막연한 공포의 대상이다. 불평등을 넘어 인간을 소외시킬 것이라는 두려움 때문이다.

AI 전문가들은 그 정도 단계가 아니라고 손사래를 치지만, 실제 AI는 우리의 삶 속으로 빠르게 들어오고 있다. 불과 50년 전만 해도 만화책에나 있었던 자율주행차가 만들어지고, 그토록 힘들었던 외국어 번역도 충분히 활용 가능한 수준으로 눈 깜짝할 사이에 나온다. 인공지능이 간단한 기사도 작성하고, 작곡도 하며, 요리도 한다. 아직 초보적인 수준이기는 하지만 뭔가를 구별, 찾아낸다는 점에서 ‘판단’을 시작했다고 해도 과언이 아니다. 적어도 10년 후에는 지금과 비교했을 때 확실히 AI 시대에 살고 있음을 실감하게 될 것이다. 

AI를 구성하는 세 가지 주요 요소는 데이터, 알고리즘, 컴퓨팅 파워라고 할 수 있다. 가장 큰 문제는 주요 요소 전부를 아무나 가질 수 없다는 데 있다. 현재 수준에서 AI는 거대 자본과 그 지원을 받는 천재들의 합작품으로 실현되고 있다. 전 세계 수많은 AI 관련 스타트업 기업들이 있기는 하지만 그들은 구글이나 IBM 등이 만들어낸 원천 알고리즘과 제공된 데이터를 이용해 그저 제한적으로 활용 가능한 응용 기술들을 개발해낼 뿐이다.

구글이 친절하게도 일반인들이 사용할 수 있도록 간편화시켜 놓은 Tensorflow 같은 도구들을 돌리려고만 해도 컴퓨터 용량이 상당해야 한다. 빅데이터를 구축하는 데도 어마어마한 비용과 인력이 필요하며, 설사 빅데이터가 있다고 하더라도 일반인들은 그것에 쉽게 접근하기 어렵다. 

그래서 AI는 점점 권력이 돼 가고 있다. 이대로 그냥 두면 언젠가는 통제할 수 없는 권력을 갖게 될 것이다. 실상 AI가 무서운 것이 아니라 AI 기업이 무서운 이유다. 

현재 AI는 제한적인 일을 잘한다. 인간으로 비유하자면 현재는 손가락만 잘 쓰는 AI, 발가락만 잘 쓰는 AI, 눈이 좋은 AI 등이 있다. 조만간 그들이 연결되는 시점이 곧 올 것이다. 그러면 초기에는 프랑켄슈타인처럼 작동하다가 점차 슈퍼맨처럼 변해갈 것이다. 

슈퍼맨이 영화처럼 인간을 위해 헌신하면 좋으련만 실상은 슈퍼맨의 소유자가 있다. 소유자는 슈퍼맨을 이용해 열심히 돈을 벌 것이고, 평범한 인간들은 점점 더 슈퍼맨에 의존하게 될 것이다. 기계가 점점 ‘자율적’이 돼 갈수록 인간은 점점 더 ‘의존적’인 존재가 돼 가는 ‘자율성 총량의 역설’에서 벗어나지 못하게 되는 것이다.  

현재는 일반 사람들이 자의반 타의반으로 데이터를 열심히 만들어 기업들에 헌납하고 있다. 그 대가로 이메일을 공짜로 사용하고, 포털 사이트를 이용해 쉽게 정보도 찾는다. 기업들은 데이터를 쌓고 쌓아 슈퍼맨을 만드는 데 사용한다. 슈퍼맨을 만든 데이터는 정작 데이터를 쌓는 데 기여한 일반인들에게는 제공되지 않는다. 모든 기업들이 플랫폼을 통해 데이터를 확보하려고 하는 이유다.  

AI는 많은 사람들이 예측하는 것처럼 유용한 도구가 될 수도, 파괴적 도구가 될 수도 있다. 적어도 인간에게는 그렇다. 인간 너머를 보자는 포스트휴머니즘(post-humanism)적 사고로는 뭐가 대수냐고 하겠지만 인간들이 목숨을 바쳐가며 800만년 넘게 지켜 온 ‘자유 의지’가 변질될 기로에 서 있기 때문이다. 

현재 AI 대표기업 구글은 오픈소스 정책을 펴고 있다. 데이터도 일부 제공하고 있어 당장 큰 두려움을 주고 있지는 않다. 하지만, 미래로 갈수록 현재보다 빠른 속도로 사람들은 ‘편리한’ 구글과 같은 기업에 의존적이 될 것이다. 이런 플랫폼 기업들은 국경을 넘어 전 세계적 권력을 갖게 될 수도 있다. 아직은 AI 기업의 영향력이 국가를 압도할 정도로 크지는 않지만 시간이 갈수록 통제가 힘들어질 것이다. 어쩌면 이미 그렇게 됐을 수도 있다. 

이제는 이 문제에 대해 국제 사회가 나서야 한다. AI 기업들이 지닌 AI 기술의 발전 정도를 정확히 파악하고, 이것의 영향에 대해 면밀히 검토해야 한다. 그들이 수집한 데이터가 공공의 목적에 부합할 수 있도록 상시 감시 체제를 구축해야 한다. 국가 차원에서 해결하기 어려우면 민간 차원에서라도 국제적인 연대를 통해 이를 감시하고, 문제점을 찾아내기 위해 노력해야만 한다. 

식품인증과 같이 ‘인간을 위한 AI의 사용(AIH : AI for Human)’이라는 AIH인증제를 도입할 필요가 있다. 이것은 AI 기업을 부도덕한 존재로 몰아가는 취지가 아니다. 그들도 사실 과도한 경쟁이라는 어둠 속에서 위험성을 정확하게 인지하지 못할 수 있다. 자신들의 기술을 응용했을 때 어떤 일이 벌어질지에 대해 거시적으로 예측하기도 어렵다. 

‘AIH’인증제는 기술 개발을 통제하고 규제하자는 차원의 문제가 아니다. 인류의 공동 번영을 추구하고, 인간이 기계에 소외되지 않고 존엄성을 지키며 살아갈 수 있도록 방향을 설정해 주자는 것이다. AI 기업이 절대 권력을 갖고 절대 부패하기 전에, 평범한 인간들도 AI를 활용해 자신과 주변의 문제를 해결할 수 있게 방향을 정하고 길을 닦기 시작할 때다.

저작권자 © 한국대학신문 무단전재 및 재배포 금지