문형남 숙명여대 경영전문대학원 교수(한국AI교육협회 회장)

문형남 숙명여대 경영전문대학원 교수(한국AI교육협회 회장)
문형남 숙명여대 경영전문대학원 교수(한국AI교육협회 회장)

ChatGPT(챗GPT, 챗지피티)가 글로벌 핫 이슈가 되고 있으며, 인류의 삶에 혁명적인 변화를 가져오고 있다. ‘ChatGPT’에서 GPT는 ‘Generative Pre-trained Transformer’의 약자로, 우리말로는 “미리 훈련된 생성 변환기”라고 할 수 있다. 챗GPT는 기존에 입력된 스크립트로만 대화를 진행하는 연산형 변환기에서 진일보해 딥러닝을 통해 스스로 언어를 생성하고 추론하는 능력을 갖췄다. 이는 지식과 기술의 혁명이다. 빌 게이츠는 “챗GPT는 인터넷만큼 중대한 발명이며 세상을 바꿀 것”이라고 했다. 인터넷혁명과 스마트폰혁명에 이어 이들과 맞먹는 챗GPT혁명이라고도 한다.

챗GPT가 다양한 분야에서 활용되고 있으며, 많은 사람들이 챗GPT에 뜨거운 관심을 가지면서 사용량이 급증가하고 있다. 챗GPT 관련 책들이 쏟아져 나오고 있고, 챗GPT 강좌도 엄청나게 열리고 있다.

문제는 챗GPT의 한계가 있다는 것이다. 챗GPT 관련 책이나 강좌들이 챗GPT 사용법 위주로 되어 있지만 챗GPT의 문제점 등을 지적한 책이나 강좌는 찾아보기가 어렵다. 챗GPT는 매우 유용하고 놀랄 정도로 우수한 답을 내놓기도 한다. 그러나 챗GPT는 태연하게 거짓말을 하거나 틀린 답을 내놓는 경우도 많다. 초보자들은 챗GPT의 이런 문제점을 잘 모르거나, 강사나 교사 및 저자들도 챗GPT의 단점을 간과하는 경우가 흔하다.

챗GPT를 교육에 활용하려면 먼저 교사나 교수 또는 강사가 챗GPT의 기본 원리, 장점과 단점 및 문제점 등을 잘 파악해 챗GPT의 특성 등을 먼저 정확하게 이해하게 한 후에 교육을 해야 한다. 챗GPT는 장점뿐만 아니라 단점도 많은데, 특히 챗GPT의 단점과 문제점 및 이에 대한 해결 방안 등을 제시하는 전문가가 적어 이를 지적하고자 한다. 

챗GPT는 자연어 처리 분야에서 혁신적인 기술로 떠오르며, 많은 성과를 이뤄냈다. 그러나 아직 몇 가지 문제점이 존재하며, 그에 대한 대응책을 제시할 필요가 있다. 첫째는 편향(Bias) 문제다. 챗GPT는 학습 데이터에 따라 편향되는 경향이 있다. 이는 특정 집단에 대한 공정하지 않은 대우를 초래할 수 있다. 이를 해결하기 위해서는 학습 데이터의 다양성을 높이고, 공정성을 검증할 수 있는 평가 지표를 도입해야 한다.

둘째는 일반화 능력 문제다. 챗GPT는 학습 데이터 내에서만 성능이 우수하며, 새로운 데이터에 대한 일반화 능력이 부족하다. 이를 해결하기 위해서는 다양한 데이터로 모델을 학습하고, 효과적인 데이터 증강 기법을 도입해야 한다.

셋째는 대화의 지속성 문제다. 챗GPT는 대화의 지속성을 유지하기 어렵다. 이는 대화의 흐름을 이어가기 어렵게 만들며, 사용자 경험을 저하시킨다. 이를 해결하기 위해서는 대화의 흐름을 파악하고, 대화의 문맥을 고려하는 모델을 개발해야 한다.

넷째는 가독성 문제다. 챗GPT는 생성된 문장이 어색하거나 이상한 경우가 종종 있다. 이는 사용자에게 혼란을 줄 수 있다. 이를 해결하기 위해서는 생성된 문장의 가독성을 높이기 위한 후처리 기법을 적용하거나, 더 나은 언어 생성 모델을 개발해야 한다.

이러한 문제를 해결하기 위해서는 챗GPT의 성능을 높이기 위한 다양한 연구와 기술 발전이 필요하다. 더 나은 학습 데이터, 평가 지표, 모델 구조, 후처리 기법 등을 개발하고, 이를 적용함으로써 챗GPT의 성능을 지속적으로 향상시켜 나가야 한다.

챗GPT에 대해 많은 사람들이 잘못 알고 있는 오해와 그에 대한 진실도 정리할 필요가 있다. 첫째, “챗GPT의 답은 팩트다”라고 생각하는 사람이 많은데, 사실은 그렇지 않다. 팩트가 아닐 경우도 많다. 둘째, “챗GPT의 답은 항상 같다.” 아니올시다. 매번 답이 다르다. 셋째, “챗GPT의 답은 항상 옳다.” 그렇지 않다. 틀리는 경우도 상당히 많다. 

넷째, 챗GPT의 답은 빅데이터를 활용한 결과다. 아니다. 많은 데이터로 학습을 했지만 빅데이터를 활용하지 않은 경우도 많다. 다섯째, 챗GPT는 거짓말을 안한다. 그렇지 않다. 그럴듯한 거짓말을 자연스럽게 잘 한다. 여섯째, 챗GPT는 판단한다. 이 점도 사실이 아니다. 판단하지 않는다. 주관적 판단, 객관적 판단, 윤리적 판단, 사실적 판단 등 판단을 하지 않는다. 학습한 정보를 기반으로 질문에 적절한 대답을 하는 것이다. 

이런 점을 미뤄봤을 때, 챗GPT를 교육한다면 반드시 먼저 챗GPT에 대한 오해와 문제점을 알려주는 교육부터 해야 한다. 그렇지 않으면 챗GPT에 대한 교육이 사상누각이 될 수 있다. 

<한국대학신문>

저작권자 © 한국대학신문 무단전재 및 재배포 금지