차별·혐오 없도록…AI 시대 윤리교육 어떻게 해야 하나

4차 산업혁명 시대 무한대로 활용되는 AI에 대한 뜨거운 관심 신뢰받는 AI 기술이 되려면 새로운 ‘AI 윤리·가치·교육’ 필요 개발자, 공급자, 이용자로 나눠 각각 AI 윤리 조건 충족해야

2023-01-23     김한울 기자
(사진=아이클릭아트)

[한국대학신문 김한울 기자] AI(Artificial Intelligence). 인공지능은 인간이 갖추고 있는 학습, 추론, 지각 등 다양한 작업을 할 수 있도록 컴퓨터 등을 활용해 인공적인 시스템을 구현하는 기술이다. 1956년 미국 다트머스 대학교에서 인공지능이라는 개념을 처음으로 꺼낸 지 100년이 채 되지 않았지만 AI 기술은 인간이 처리하기 힘든 복잡한 수식이나 문제를 해결하는 것을 시작으로 압도적 효율성을 입증해왔다. 이후 많은 관심을 받고 지속적인 연구가 이뤄지면서 AI 기술은 방대한 양의 데이터를 분석해 유용한 정보를 활용해야 하는 미래 정보사회의 혁신과 전환을 이끄는 핵심기술로 인정받고 있다.

■ 대학가도 무궁무진한 AI 활용 가능성에 주목 = 4차 산업혁명 핵심 기술인 AI는 분야를 막론하고 활용도가 매우 커 관련 산업 육성을 위해 여러 국가들이 공을 들이고 있다. 윤석열 대통령은 후보 시절 공약에서 ‘디지털 경제 패권국가로의 도약’을 위해 AI 산업 육성을 강조했으며 국내에 세계 최대의 AI 인프라 조성을 약속했다. 대학뿐만 아니라 연구소, 기업 간 산·학·연 협력 네트워크를 구축해 ‘AI 생태계’를 활성화시키겠다는 계획을 소개하기도 했다.

취임 이후에도 윤 대통령은 첨단 미래산업에 필요한 맞춤형 인재 양성을 핵심 국정과제로 언급하며 필요성을 꾸준히 언급해왔다. 특히 AI를 비롯한 창의적 교육이 공교육에서도 충분히 이뤄질 수 있도록 교육 혁신을 이뤄내겠다고 강조했다. 교육계도 이런 정책 변화에 일제히 화답했다. 교육부는 AI를 비롯한 첨단 산업 인력 육성을 위한 지침 마련에 나섰으며 대학들도 일제히 학과에서 AI 기술을 활용할 수 있도록 교육과정을 개편하거나 △AI 관련 학과 개설 △자체 AI 네트워크 구축 △공동연구센터 설립 △기업과의 산학협력 체결 등 다양한 시도를 이어가고 있다.

■ 혐오발언·개인정보 유출 논란 ‘이루다’ 사태 빚어…AI 윤리 ‘수면 위로’ = 이처럼 주목 받고 있는 AI 기술은 나날이 발전하면서 이미 우리의 삶 속으로 깊숙이 파고들었다. 하지만 급속한 기술 발전에 따라 AI 기술을 악용한 범죄 등 부정적 측면도 간과할 수 없다. AI 기술을 기반으로 활용한 이미지 합성 기술 ‘딥페이크’를 악용해 교묘한 거짓 영상을 배포하거나, 일반적인 경우에서 벗어나 잘못된 선택을 하는 등 윤리적 문제들이 발생하기 시작했다.

AI 개발을 위해서는 방대한 양의 데이터를 분석해 관리하고 이를 활용할 수 있는 정보로 사용하는 ‘빅데이터’ 기술이 필수적이다. 다만 해당 빅데이터들을 수집하는 과정에서 특정 인종, 문화, 예술 등에 대한 편향적인 데이터를 학습하게 되면 사회적 윤리에서 비교적 자유로운 AI가 앞서 말한 거짓 정보를 말하거나 큰 문제를 야기할 수 있다. 우리나라에서도 지난 2020년 인공지능 챗봇 ‘이루다’가 이용자의 성희롱·성차별 발언을 학습해 성소수자를 비롯해 장애인, 임산부 등 사회적 약자에 대한 혐오 발언을 쏟아내 논란을 일으킨 사례가 존재한다. 빅데이터 수집 과정에서 이용자들의 사적 대화를 수집하는 등 개인정보 침해도 도마에 올랐다.

AI가 내린 선택 자체에 대한 윤리 문제도 있다. AI 기술을 활용한 자율 주행 자동차가 많은 사람이 길을 건너고 있는 횡단보도 앞에서 어쩔 수 없이 사고를 내야 한다면 운전자 한 명의 피해와 보행자 다수의 피해 둘 중에 하나를 선택해야 하는 사례가 대표적이다. 둘 중 어떤 선택을 하더라도 윤리적 문제를 피할 수 없기에 AI를 만드는 사람이 어떻게 만드는지에 따라 선택 방향이 달라질 수 있다는 단점도 분명하다.

교육부가 지난해 8월 발표한 ‘교육분야 인공지능 개발·활용에 대한 규범(윤리원칙)’ (사진=교육부)

■ 사람의 성장을 지원하는 인공지능…교육부, ‘AI 윤리원칙 발표’ = 앞서 설명한 AI 기술이 가져올 수 있는 여러 윤리적 문제에 대처하기 위해 다양한 상황을 살펴보고 여러 사람의 의견을 모을 수 있는 ‘기준’의 필요성이 제기됐다. 우리나라의 경우 교육부가 선제적으로 지난해 초 시안을 발표한 후 공청회와 전문가 간담회, 유네스코 등 국제기구 의견 조회를 거쳐 지난해 8월 교육부가 ‘교육분야 인공지능 개발·활용에 대한 규범(윤리원칙)’을 확정해 발표했다.

교육기관 및 교육활동을 지원하는 행정기관에서 활용되는 모든 AI 대상에 적용되는 해당 규범은 ‘사람의 성장을 지원하는 인공지능’이라는 대원칙을 세웠다. 10대 세부원칙으로는 △인간성장의 잠재성을 이끌어낸다 △학습자의 주도성과 다양성을 보장한다 △교수자의 전문성을 존중한다 △교육당사자 간의 관계를 공고히 유지한다 △교육의 기회균등과 공정성을 보장한다 △교육공동체의 연대와 협력을 강화한다 △사회 공공성 증진에 기여한다 △교육당사자의 안전을 보장한다 △데이터 처리의 투명성을 보장하고 설명 가능해야 한다 △데이터를 합목적적으로 활용하고 프라이버시를 보호한다 등이 있다. 특히 AI 활용에 있어 명분이 있어도 개인 사생활을 침해하지 않아야 한다란 원칙을 세울 정도로 체계적인 규범에 영국 교육부에서는 지지 의견을 제출할 정도로 큰 관심을 받았다.

더불어 교육부는 규범의 구체적 실천을 위해서도 해당 내용을 AI 윤리교육과 교원의 역량 강화 연수 자료를 비롯해 관련 연구의 발전과 기업과의 협업 가이드라인으로 활용하겠다고 밝혔다. 교육부 관계자는 “윤리원칙 발표를 통해 교육현장에서의 AI 도입과 활용에 있어 규범이 최소한의 안전장치를 제시하고자 했다”고 설명했다.

지난 10일 서울여대에서 열린 ‘제11회 인성교육 학술토론회’에서 김명주 서울여대 정보보호학과장이  ‘AI 시대, 디지털 윤리와 인성’을 주제로 기조강연을 펼치고 있다. (사진=서울여대)

■ “AI를 구성한 인간의 윤리적 가치관부터 바로 서야 AI 문제 해결 가능” = 이처럼 ‘인공지능 윤리(AI Ethics)’의 중요성이 강조되면서 전문가들은 AI시대에서 윤리 의식을 바로세워야한다고 강조하고 있다. 서울여대 바른AI연구센터장과 인공지능윤리정책위원회 위원을 맡고 있는 김명주 교수(정보보호학과장)는 지난 10일 ‘AI 시대, 디지털 윤리와 인성’을 주제로 학술토론회에서 AI 윤리 필요성을 강조했다.

김명주 교수는 “초연결과 지능화로 대표되는 지능정보사회에 들어서면서 AI의 중요성은 말로 다할 수 없다. 하지만 기존 산업사회에서 가졌던 기존 윤리가 정보화 사회로 전환됐을 때 △ICT 문화와 넷티켓 △개인정보와 프라이버시 △저작권과 지식재산권 등 인터넷 윤리를 제시했던 것처럼 정보화사회에서 지능정보사회로 전환되면서 핵심 기술인 AI가 가질 수 있는 윤리적 문제를 막기위해 새로운 ‘AI 윤리’가 필요한 시점”이라며 “이를 위해 AI 생태 환경을 조성함과 동시에 공통원칙 아래 개발자, 공급자, 이용자로 나눠 각각의 윤리 조건을 충족시켜야 한다”고 주장했다.

이렇게 갖춰진 AI 윤리는 △인간 존엄성 △사회의 공공선 △기술의 합목적성이라는 3가지 원칙을 세우고 인간성을 가장 우선적으로 바라봐야 한다고 설명했다. 그러면서 김 교수는 윤리적 가치관부터 바로세워야 한다고 강조했다. 그는 “전통적 사회에서 디지털 사회로 바뀌는 디지털 전환 속에서 AI 윤리와 가치관이 흔들리는 것은 기술 때문이 아니라 인간 스스로가 흔든다고 생각한다”며 “AI를 구성한 인간의 윤리적 가치관이 바로 설 때 AI가 가져오는 문제를 해결할 수 있을 것이다. 새로운 기술인 AI를 제대로 알고 사람을 제대로 세우는 것이 우선돼야 한다”고 말했다.

한국인공지능학회의 회장을 맡고 있는 유창동 카이스트 교수도 한 매체와의 인터뷰에서 “AI 기술을 만드는 것은 사람이고 학습하는 데이터도 사람에 의해 만들어지기에 편향성 문제가 불거질 수 밖에 없다”며 “윤리 문제들을 막을 수 있는 안전장치가 마련돼야 한다”고 언급했다. 유 교수는 앞서 설명한 ‘이루다’처럼 마이크로소프트가 2016년 트위터에 제시한 AI 챗봇 ‘테이(Tay)’도 성희롱과 사회적 약자 차별 글을 남겨 서비스가 중단됐던 예시를 들었다. 유 교수 역시 이같은 ‘AI 편향성 문제’ 극복은 아직 현재진행형이라며 공정성 확보를 위한 AI 윤리가 바로 세워져야 한다고 내다봤다.