이찬규 중앙대 HK+ 인공지능인문학 사업단 단장(인문한국(HK)연구소협의회 회장)

이찬규 중앙대 HK+ 인공지능인문학 사업단 단장(인문한국(HK)연구소협의회 회장)
이찬규 중앙대 HK+ 인공지능인문학 사업단 단장(인문한국(HK)연구소협의회 회장)

생성형 AI의 등장은 본격적인 인공지능 시대를 알리는 서막과 같다. 특히 언어를 잘 다룬다. 다양한 형태와 스타일의 문장을 이해하고 생성하며, 긴 문장을 요약하기도 하고, 대화의 일관성을 유지하며 사용자와 어느 정도의 길이의 대화를 해 나갈 수도 있다. 아직은 어설프기는 하지만 이야기를 만들어 내고, 문서를 작성하며, 시나 소설을 만들어 내기도 하고, 번역도 잘 하며, 제법 사용자의 감정을 파악하고 그에 응대해주기도 한다.

또한 초보적인 단계의 추론으로 답변하기도 하며, API 기능을 사용하면 코드를 짜 주고 ppt도 만들어 주는 등 보다 더 복잡한 작업을 수행할 수도 있다. 말을 하면 원하는 그림도 그려주고, 작곡도 해 준다. 기계가 인간의 직접적 지시 없이 이런 작업을 해낼 수 있다는 것은 실로 놀라운 일이 아닐 수 없다. 인공지능이 상용화될 수 있는 수준까지 도달한 것임에 틀림없다.   

AI가 인간이 아니듯이 AI가 만들어 낸 말도 인간의 언어와는 다르다는 점을 직시해야 한다. 필자는 AI의 언어를 인간의 언어와 구별 ‘comgua’(컴퓨터+링구아, 컴퓨터언어)라고 불러야 혼동이 줄어들 것이라 생각한다. 대형언어모델(LLM)을 기반으로 한 생성형 AI는 말 그대로 대상을 인지하지 못하고 오로지 생성만 한다는 데 문제가 있다. ‘사과’의 본질이 무엇인지를 모른 채 ‘[나무], [배]’, ‘[달다], [빨갛다], [동그랗다]’ 같은 단어들과의 통계적 관계를 바탕으로 문장에서 함께 등장할 가능성을 예측해 준다.

대형 언어 모델(LLM)에서는 토큰이라고 하는 일종의 어절 단위의 관계만을 통계적으로 인식하기 때문에 데이터가 충분하지 않은 것들에 대해서는 환각(Hallucination)이라고 하는 추론적 오류가 필연적으로 나타날 수밖에 없다. 사람들도 잘못된 추론을 할 수 있지만 이런 완전히 엉뚱한 추론을 하지 않는 이유는 인간은 실제 세계와 언어 세계를 연결지어 추론하기 때문이다. 인간의 언어 생성은 자신의 경험을 통한 ‘이해’를 바탕으로 하는 것인데 반해, 인공지능의 언어 생성은 실제 세계에 대한 참조 없이 이뤄진다는 점에서 환각의 위험성이 상존한다.

인간이 수행하는 참조 생성은 실제 세계와 언어 세계를 연결해 주는 데 있어 효과적일 뿐만 아니라 지금 하려고 하는 말이 내가 형성한 과거의 지식과 어떻게 맥락적으로 연결돼 있는지를 알려주기도 한다. 이러한 방식은 맥락적 연결뿐만 아니라 메타 인지를 만들어 자신의 언어에 대한 가치 판단을 가능하게 해 준다. 이러한 방식 덕분으로 인간은 자기가 만들어낸 말이 거짓인지, 추정인지, 사실인지를 깨달을 수 있어서 윤리적 담화가 가능하다.

반면에 생성형 AI는 인간과 같은 능력을 가질 수 없는데 그것은 AI가 세상과 연결된 지식으로서 언어를 학습하는 것이 아니라 오로지 ‘언어’ 그 자체만을 학습하므로 참조가 없는 표현이라는 점에서 초기 범용 AI(AGI)라고 하기에는 이르다. 전적으로 comgua에 의존할 수 없는 이유이다. 그럼에도 불구하고 사람들은 인공지능을 계속 사용해 나갈 것이다. 불편함보다도 더 많은 이익을 가져다 주기 때문이다. 세계의 많은 대학에서 학생들이 보고서를 작성할 때, 각종 생성형 AI를 사용한다는 것은 더 이상 비밀이 아니다. AI의 진화와 관련해 전 세계적으로 윤리 문제에 많은 관심을 가지고 있는데 필자는 윤리 문제 이전에 더 근본적 담론이 형성돼야 한다고 생각한다. AI 글쓰기와 관련해 예상되는 간단한 시나리오를 구성해 보자. 

글쓰기 과정은 인간의 인지능력과 세상에 대한 지식 그리고 언어의 세계를 연결하는 고차원적 활동이다. 이 능력은 개인의 생각을 체계적으로 발전시키는 데도 절대적으로 필요하지만 타인에게 나의 생각을 전달할 때도 필수불가결한 사회적 활동의 일부이다. 즉, 글은 자신의 일부이자 타인과 나, 그리고 세상을 연결해주는 중요한 소통의 다리인 셈이다. 말에도 어투가 있듯이 글에도 문체라는 것이 생기는 이유는 글쓰기가 개인의 사유방식 뿐만 아니라 집단적 사고를 습관적으로 표출하기 때문이다.

초기에는 많은 사람들이 ChatGPT를 글쓰기의 보조적인 수단으로 사용할 것이다. 프롬프트 능력도 중요해서 질문을 잘 해야만 좋은 대답을 주기 때문에 일부나마 자발적 사고 활동이 작동한다고 볼 수 있다. 이 시기에는 좋은 글과 나쁜 글을 구별할 수도 있다. 그런데 생성형 AI의 성능이 계속 향상되고, AutoGPT와 같은 기능의 향상으로 AI 스스로가 좋은 질문과 답변을 계속 만들어 가면서 나의 생각을 최적화 시키는 일을 해 준다면 상황은 달라질 것이다. AI는 계속 발전하면서 항상 자신의 글보다 훨씬 더 뛰어난 글을 써주는데 사람이 글쓰기와 같은  힘든 일을 계속하지는 않을 것이기 때문이다. 그럴려고 AI를 발전시켜가고 있으니 말이다.

그러면 인간은 더 이상 글쓰기를 위해 종합적 사고력 개발도, 논리적이고 체계적인 사고 훈련도 하지 않으려고 할 것이다. 이러한 활동이 필요한 일들을 대부분 AI가 잘 해 줄 것이고 인간은 유전적으로 에너지를 덜 쓰는 방향으로 행동하도록 만들어졌기 때문이다. 자동차나 스마트폰에 장착된 편리한 네비게이션 기능으로 인해 사람들이 방향 감각을 상실해 가는 것을 보면 쉽게 이해할 수 있다. 결국 주도적으로 글쓰기 과정을 수행하지 않는다는 것은 개인적으로는 중요한 ‘사고의 조직화’ 훈련을 하지 않는다는 의미이고, 집단의 측면에서는 논리적 소통이 어려워질 가능성을 높인다.   

인류 진화의 700만년을 보면 자연이 670만년 동안 인간의 진화를 이끌어 왔고, 언어를 사용하기 시작한 이후 30만년 동안은 인간이 주도적으로 자연을 극복하고 문명을 일구어 냈다. 그렇지만 범용인공지능이 길게 잡아도 100년 후에는 등장한다고 하면 그 이후로는 기계가 세상의 변화를 주도하는 시대가 될 것이다.

일부 비관론자들은 AI가 자의식을 가지고 인간을 파괴할 수 있다고 하지만 그럴 가능성은 오히려 낮다. 가치판단은 생명체에게 필요한 것이지 생존 욕구가 없는 AI에게는 나타날 가능성이 희박하기 때문이다. 오히려 문제는 AI로 인해 인간이 삶의 여러 측면에서 자기 주도성을 상실하고 스스로를 무기력한 존재로 전락시킬 가능성이 높다는 데 있다. AI는 인간의 삶을 변화시킬 것이 확실하지만 그로 인해 인간이 무기력해지지 않기 위해서 무엇을 해야 할지 머리를 맞대고 논의를 시작해야만 한다.   

<한국대학신문>

키워드

#시론 #이찬규
저작권자 © 한국대학신문 무단전재 및 재배포 금지