일상생활 전반에서 인공지능 로봇 활용…‘생성형 인공지능’ 챗GPT 세계적 열풍
챗GPT 등 인공지능 확산에 부정적 전망 우세…인공지능법안 문제점도 ‘도마 위’
고려대·부산대, 가이드라인 제정…교육적 측면에서 인공지능 시대 대학의 역할 필요

전문가들은 챗GPT 등 인간의 삶을 침투하는 AI 시대에서 AI 부작용과 오해를 해소하는 것이 중요하다고 입을 모은다. 특히 인간과 AI의 공존을 위한 대학의 인성교육에 대한 역할이 요구된다고 말한다. (사진=아이클릭아트)
전문가들은 챗GPT 등 인간의 삶을 침투하는 AI 시대에서 AI 부작용과 오해를 해소하는 것이 중요하다고 입을 모은다. 특히 인간과 AI의 공존을 위한 대학의 인성교육에 대한 역할이 요구된다고 말한다. (사진=아이클릭아트)

대학은 지성의 전당이다. 시대와 사회가 변하고, 세월이 흘러도 변치 않는 명제다. 지성의 전당으로서 대학은 사회 문제에 관심을 갖고 해결법 제시에 앞장서야 한다. 즉 교육과 연구, 지역사회 봉사와 산학협력을 통해 국가와 사회 발전에 기여해야 한다. 이에 본지는 사회 문제를 짚어보고, 대학이 사회 문제 해결에 앞장설 수 있는 방향을 살펴본다. <편집자 주>

[한국대학신문 김준환 기자] 인공지능(Artificial Intelligence·이하 AI)시대가 열리고 있다. 그러면서 AI의 부작용을 우려하는 목소리도 커지고 있다. 그렇다면 AI시대는 인류에게 기회일까? 아니면 위기일까? 한 가지 사실은 분명하다. AI시대를 거스를 수 없다는 것. 이에 AI시대가 인류에게 기회의 장으로 작용하기 위해 대학의 역할도 필요하다. 

■ AI 진화 거듭, 챗GPT 등장…AI법안, 국회 과방위 법안소위 통과 = 과거 공상 과학영화나 만화에 등장하던 AI 로봇. 지금은 현실의 이야기다. 서빙 로봇, 작업 로봇, 대화 로봇 등 AI 로봇이 우리의 일상 곳곳에 존재한다. 특히 미국의 오픈에이아이(Open AI)가 2022년 12월 1일 ‘ChatGPT(이하 챗GPT)’를 공개한 뒤 전 세계적으로 챗GPT 열풍이 불고 있다. GPT(Generative Pre-trained Transformer)는 생성형 AI로 텍스트 생성 딥러닝 AI 모델을 뜻한다. 챗GPT는 대화 전문 AI 챗봇(채팅+로봇의 합성어)이다.

현재 챗GPT는 도입과 적용이 빠르게 확산되고 있다. 경기도는 지난 3월 20일 경기도청 대강당에서 ‘경바시(경기도를 바꾸는 시간) - GPT 혁신포럼’을 개최했다. 당시 김동연 경기도지사가 챗GPT-4의 개회사를 낭독, 눈길을 끌었다. 김 지사는 챗GPT-4 생성형 AI 모델에게 “너는 대한민국 경기도지사야. 경기도에서 GPT를 활용, 도민의 인공지능 활용 권리를 확대하려고 해. 이런 정책을 중심으로 연설문을 써”라고 요청했고 챗GPT-4가 개회사를 작성했다. 

챗GPT-4는 개회사에서 “먼저 김대중 전 대통령님이 전국에 초고속 인터넷을 도입하고 농어촌에서 농어민들에게 컴퓨터 교육을 실시한 20여 년 전의 역사적인 순간을 기억하며, 이러한 정신을 이어받아 저희 경기도에서는 차세대 기술인 생성형 인공지능 분야에서의 활용권을 확대하고자 한다”고 말하며 △학교에 AI 교육 도입 △소규모 사업자와 새싹 기업 대상 AI 기술 활용 창업과 일자리 창출 지원 △공공기관에 생성형 AI 기술 도입 △AI 기술 발전과 활용에 따른 사회적 영향과 윤리적 쟁점 신중 고려 등 4가지 방안을 제시했다. 

AI 시대에 맞춰 법적 기반도 마련되고 있다. 지난 2월 14일 ‘인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(이하 AI법안)’이 국회 과학기술정보방송통신위원회(이하 과방위) 정보통신방송법안심사소위를 통과한 것. 

AI법안은 AI 규율 기본법이다. 이를 위해 과학기술정보통신부(이하 과기부)가 3년마다 AI 기본계획을 수립한다. 또한 AI위원회도 설치된다. 특히 AI 기술 발전을 목표로 ‘우선허용, 사후규제’ 원칙을 규정했다. 즉, 누구든지 AI 기술, 알고리즘 연구·개발과 AI 제품 또는 AI 서비스 출시 등을 수행할 수 있도록 보장한다.

(이미지=한국대학신문 자료 사진)
페이스북 메신저 기반의 AI 챗봇 ‘이루다’가 2020년 12월 23일 출시됐지만 ‘AI 윤리’ 논쟁이 불거지며 런칭 3주 만에 서비스가 중단됐다. (이미지=한국대학신문 자료 사진)

■ AI 부작용 우려 ‘확산’…AI법안 문제점도 ‘지적’ = 1984년 개봉 영화, 터미네이터. 영화에서 AI 컴퓨터 전략 방어 네트워크가 스스로 지능을 갖추고 핵전쟁을 일으켜 인류를 잿더미 속에 묻어버리는 내용이 등장한다. 그저 ‘영화 속 이야기’라고 생각했지만, AI가 발달하면서 AI의 부작용을 우려하는 목소리도 높아지고 있다. 

‘이루다’ 사건이 대표적이다. ‘이루다’는 페이스북 메신저 기반의 AI 챗봇으로 스타트업 스캐터랩이 2020년 12월 23일 출시했다. 그러나 ‘이루다’는 ‘AI 윤리’ 논쟁이 불거지며 론칭 3주 만에 서비스가 중단됐다. 스캐터랩이 카카오톡 등 메신저의 대화 내용을 수집한 뒤 이를 ‘이루다’의 학습용 데이터로 이용했는데 ‘이루다’가 학습 데이터를 토대로 답변하는 과정에서 차별, 혐오, 성적 발언 등 윤리적 문제점이 발생했기 때문이다. 

일자리 감소도 AI의 부작용으로 꼽힌다. 실제 블록체인 기반 온라인 여론조사 플랫폼 더폴이 지난 3월 28일부터 4월 3일까지 2만 6860명을 대상으로 실시한 설문조사에 따르면 ‘챗GPT 등 AI 기술로 일자리가 줄어들 것이라고 생각하느냐’라는 질문에 전체 응답자의 59.3%가 ‘많은 일을 AI가 담당하고, 인간의 일자리는 줄어들 것’이라고 답했다. ‘만약 AI가 일자리를 모두 대신하는 상황이 빚어진다면 어떨지에 대한 질문’에는 ‘빈부격차가 심해지고, 인간의 쓸모가 줄어들어 디스토피아가 될 것’이라는 부정 전망이 49.1%로 가장 많았다.

챗GPT에 대한 부정 전망도 우세했다. 한국언론진흥재단이 20∼50대 1000명을 대상으로 ‘챗GPT 이용 경험 및 인식 여론조사’를 실시한 뒤 지난 12일 공개한 결과에 따르면 응답자들은 △AI 작성 글을 학교과제, 자기소개서 등으로 제출하는 부정행위(90.1%) △AI가 답변에 저작물을 활용, 발생하는 저작권 침해(88.7%) △허위정보 확산(88.6%) △창의성 감소(81.4%) 등 항목에 80% 이상 동의했다. 

AI법안의 문제점도 ‘도마 위’에 오르고 있다. 특히 AI법안이 ‘우선허용, 사후규제’ 원칙을 규정한다는 점에서 비판의 목소리가 높다. 희우 진보네트워크센터 활동가는 “AI가 어떤 영향력을 가지게 될지, 어떤 범위까지 뻗어나갈지 아직 알 수 없는 시점인데도 불구하고 법안은 AI 산업에 대한 국민 안전과 인권 보장 규제를 완화하며, 대부분의 규범을 과기부가 담당한 채 ‘우선허용·사후규제’한다는 무책임한 내용을 담고 있다”고 비판했다. 

(사진=한국대학신문 DB)
(사진=한국대학신문 DB)

■ AI 부작용과 오해 해소에 대학의 역할 필요 = 전문가들은 AI가 더욱 빠르고, 다양하게 발전할 것으로 전망하고 있다. 즉, AI 시대는 거스를 수 없다. 따라서 AI 시대가 영화 터미네이터처럼 인류의 위기 또는 재앙으로 작용하지 않고, 인류의 기회로 작용하려면 AI 부작용과 오해를 해소하는 것이 중요하다. 이를 위해 대학의 역할이 요구된다. 

먼저 AI 가이드라인을 대학이 제시할 수 있다. 고려대가 국내 대학 최초로 ‘챗GPT 활용 가이드라인’을, 부산대가 국립대 최초로 ‘AI 활용 가이드라인’을 제정한 것이 좋은 사례다. 

고려대는 챗GPT를 비롯해 생성형 AI 기본 활용 방향을 정하고 수업 현장에서 적용하고자 지난 3월 16일 가이드라인을 발표했다. 기술의 확산을 막기보다 기술을 합리적으로 수용하고 AI를 이용, 능동적·참여적으로 학습할 수 있도록 유도하겠다는 취지다. 김동원 고려대 총장은 “챗GPT에 의존하는 인재가 아닌 잘 활용할 수 있는 학생을 기르는 교육을 해야 한다”고 말했다.

부산대는 지난 3월 30일 국립대 최초로 ‘AI 활용 가이드라인’을 마련했다고 밝혔다. 가이드라인에는 생성형 AI의 올바른 활용 원칙을 제시하고 교수자와 학습자의 지성과 창의성 계발, 상호존중과 다양성, 강의 현장의 안전과 교육적 윤리 등의 내용을 담았다. 

고려대와 부산대처럼 가이드라인 제정은 챗GPT를 비롯해 AI를 올바르게 활용할 수 있도록 유도한다는 점에서 의미가 크다. 한 걸음 더 나아간다면, 가이드라인이 해당 대학 안에만 머물지 않고 지역사회 전체 교육기관으로 보급·확산될 필요가 있다. 대학이 교육적 측면에서 올바른 AI 사용의 안내자 역할을 하는 것이다. 

문형남 숙명여대 경영전문대학원 교수(한국AI교육협회 회장)는 “챗GPT를 교육한다면 반드시 먼저 챗GPT에 대한 오해와 문제점을 알려주는 교육부터 해야 한다. 그렇지 않으면 챗GPT에 대한 교육이 사상누각이 될 수 있다”고 지적했다. 

AI 시대에도 결국 ‘인간’이 주인공이다. 이에 역설적으로 전문가들은 AI 시대에 인성교육의 중요성을 더욱 강조하고 있다. 그러면서 인성교육의 초점은 인간과 AI의 지배 관계가 아니라 공존 관계에 맞춰져야 한다고 제안한다. 인간과 AI의 공존을 위한 대학의 인성교육이 요구되는 대목이다. 

최근 《챗GPT 교육혁명》을 출간해 미래교육의 방향에 대한 시사점을 제시한 정제영 이화여대 미래교육연구소장도 ‘인간 중심 AI’에 대한 의미를 짚었다. 그는 “결국 지식으로 인공지능을 이길 수 없다. 인공지능 시대에 대비해 ‘디지털 리터러시’ 역량을 길러야 한다”며 “인공지능이 발전할수록 인문학적 상상력 및 창의성과 함께 인성교육이 강조될 필요가 있다. 특히 대학 차원에서 인성교육과 관련해 인간과 인공지능의 공존·협업을 위한 사회·윤리적 문제를 검토해봐야 한다”고 강조했다.

관련기사

저작권자 © 한국대학신문 무단전재 및 재배포 금지