보스턴대, 영국케임브리지대 등 ‘책임있는 AI(Responsible AI)’ 강의 개설
국내에서도 AI윤리의 중요성 인식하고, 윤리 강령 만드는 움직임 이어져
이남식 총장, “저작권 등 AI윤리 관련 법적 기준을 새롭게 재정의해야”
AI윤리 문제가 발생한다고 해도 대학 내에서 챗GPT 활용한 교육 필요

(이미지=아이클릭아트)
(이미지=아이클릭아트)

[한국대학신문 정은아 기자] 국내에서 과제 대필, 저작권 등 AI윤리 문제를 해결하기 위해 AI윤리 관련 규범을 정해서 발표하는 시도가 이어지고 있다. 해외의 경우 AI기술로 인한 윤리 문제를 방지하기 위해 ‘책임있는 AI(Responsible AI)’에 관련해 더 적극적인 움직임을 보인다. 해외 대학들은 AI윤리 관련 강의를 개설했고, 해외 기업들은 책임있는 AI 관련 부서를 기업 내에 설치했다. 이에 따라 국내 대학에서도 AI윤리 문제의 특수성을 인식하며, AI윤리로 인해 발생되는 문제를 어떻게 해결할 것인지 고민하는 분위기가 형성되고 있어 주목된다. 

올해 초 수도권의 국제학교에서 학생들이 영문 에세이 과제를 챗GPT로 작성해 제출한 사실이 한 언론을 통해 알려져 논란이 됐다. 교사들은 과제에 AI를 사용한 흔적이 있는지 검토하는 교사용 프로그램을 통해 이들을 적발하고 전원 0점 처리했다고 밝혔다. 교육 현장은 챗GPT 사용 여부를 확인하는 프로그램을 사용하겠다거나 챗GPT가 대신할 수 없는 과제나 시험을 내겠다는 반응을 보이기도 했다.

AI윤리 문제가 화두로 떠오르자 지난 2일 과기정통부는 ‘(가칭)디지털 권리장전’을 올해 하반기까지 만들 것이라고 발표했다. 법적인 구속력을 가지지는 않지만 AI기술과 관련해서 사회가 전반적으로 함께 추구하고 지켜나가야 할 기본 가치, 권리, 의무, 제도 등을 담은 규범이다. 같은 날 국민대의 경우 ‘국민(KOOKMIN) 인공지능 교수학습 활용 가이드라인’을 발표했다. 교수와 학생이 상호 합의 아래 적절하게 챗GPT를 활용하자는 것을 골자로 하는 내용이다. 지난해 8월에는 교육부가 ‘교육분야 인공지능 개발·활용에 대한 규범(윤리원칙)’을 발표하기도 했다.

이미 해외 대학들의 경우 좀 더 본격적으로 AI윤리 과목을 가르치기 시작했다. 특히 보스턴대는 ‘책임있는 AI, 법, 윤리학&사회(Responsible AI, Law, Ethics & Society)’ 과정을 개설했다. 데이터 과학자, 컴퓨터 과학자, 변호사 및 윤리학자 등 다양한 분야의 전문가들이 협업을 통해 연구 텔 아비브 대학교, 테크니온 대학교, 보코니 대학교 등 총 4개의 기관이 함께하고 있다. 영국 케임브리지 대학은 ‘책임있는AI’ 관련 석사과정을 개설하기도 했다.

책임있는 AI는 인공지능 기술을 개발하고 사용할 때 윤리적, 법적, 사회적 책임을 고려하는 개발 방법론이다. 책임있는 AI의 원칙에는 △투명성 △공정성 △개인정보 보호 △안전성 △윤리성 등이 있다. 책임있는 AI는 AI의 고도화된 능력에 기인한다. AI는 높은 자율성을 가졌기 때문에 스스로 학습하고 의사결정을 내릴 수 있으므로 개발자가 의도하지 않은 방향으로 나아갈 수 있다. 예측 능력 역시 높기 때문에 개인정보 보호, 사생활 침해 등의 문제로 이어질 수 있으며, 특히 대규모의 데이터를 처리할 수 있기 때문에 AI 기술은 데이터의 민감도나 편향성 등 다양한 문제가 발생할 수 있다.

고인석 인하대 철학과 교수는 다른 기술보다도 AI기술 활용 시 윤리 연구가 더욱 중요한 이유에 대해 “인공지능 프로그램이 인간의 결정을 대신하는 상황이 점점 더 넓어지는 반면 알고리즘, 산식과 같은 결정의 구체적인 원리는 우리 인간에게 알려지지 않았기 때문”이라며 “최근 챗GPT와 같은 AI기술은 다목적성을 띄고 인간의 결정을 보조하거나 사실상 대행하는 역할까지 나아갔다는 점을 주의해야 한다”고 말했다.

마이크로소프트, 구글 등 해외 AI개발 기업들은 ‘책임있는 AI’ 관련 부서를 기업 내에 설치해 운영 중이다. 김명주 서울여대 정보보호학과 교수(바른AI연구센터장)는 “챗GPT에게 취향과 선호 등을 물어보면 답을 해주지 않는다. 범죄를 물어도 답변을 거절한다”며 “이는 오픈AI(OpenAI) 내부에 ‘책임있는 AI’팀이 있어 윤리적으로 문제가 될 수 있는 부분은 사전에 차단했기 때문”이라고 밝혔다.

이어 김명주 서울여대 교수는 기업 뿐만 아니라 이용자 입장에서 책임있는 AI를 인식하는 것이 중요하다고 강조했다. “AI챗봇은 학습시킨 대로 쓰면 문제가 많다. 챗GPT 3.0에서 3.5으로 업그레이드시키면서 윤리 문제를 일으킬 수 있는 부분을 방지하는 강화학습 과정을 거쳤다”며 “물론 완전히 사전 방지하지는 못한다. 관련 부서가 계속 그 기능을 진화시켜야 한다. 그래서 이용자 관점에서도 윤리 교육이 필요한 것”이라고 말했다.

이남식 인천재능대 총장은 기존의 AI윤리와 관련된 기준을 새롭게 재정의할 필요가 있다는 의견을 제시하기도 했다. “예를 들어 저작권의 경우 앞으로는 AI기술에 입력하는 명령어 자체를 저작권으로 삼을 수도 있다”며 “명령어에 따라서 결과를 만들어내는 기술을 프롬프트 엔지니어링이라고 하는데, 최근에는 이러한 프롬프트만 모아서 파는 사업도 나타나는 중이다. 결국 이러한 명령어 자체가 저작권이 되는 셈”이라고 말했다. 

챗GPT를 활용해 과제를 대필하는 문제를 방지하기 위해서 챗GPT가 작성한 글을 감지하는 프로그램을 개발하는 시도도 있다. 프린스턴 대학에 재학 중인 에드워드 티안이 만든 ‘GPT 제로’, 미국 스탠포드대학의 크리스토퍼 매닝 교수와 첼시 핀 교수 연구팀이 개발한 ‘디텍트 GPT’, 오픈AI(OpenAI)이 무료로 공개한 ‘클래시파이어(Classifier)’ 등이 있다. 클래시파이어의 경우 AI가 쓴 글 중에서 26% 정도만 AI의 것으로 식별할 수 있다. 김명주 서울여대 교수는 이에 대해 “정확도가 낮은 편이지만, 교수 입장에서는 챗GPT로 과제를 대필하려는 학생들을 견제하는 용도로는 쓸 수 있을 것”이라고 설명했다.

반면 일각에서는 챗GPT를 과도하게 제한할 경우 챗GPT의 이점을 놓칠 수 있다는 지적을 제기한다. 이찬규 중앙대 국어국문학 교수는 “AI윤리 문제 때문에 챗GPT를 활용하지 말자는 것은 섣부른 생각일 수 있다. 챗GPT를 통해 정보 수집을 효율적으로 수행할 수 있으므로 최종 성과물의 질을 높일 수 있다”며 “개인적으로는 챗GPT를 수업에 적극적으로 활용해 볼 생각이다. 챗GPT를 통해 어떤 자료들을 찾아냈고, 이를 어떤 방식으로 참고했는지 밝히는 정도로 생각 중”이라고 전했다.

원격대학 가운데 서울사이버대는 챗GPT를 무조건 활용해야 하는 강좌를 개설했다. 이번 1학기  교양 과목 ‘메타버스 현황과 미래’를 수강하는 학생들은 과제를 제출할 때 챗GPT가 작성한 내용을 반드시 포함하도록 했다.

저작권자 © 한국대학신문 무단전재 및 재배포 금지