올해 초 인공지능(AI) 챗봇 '이루다'로부터 촉발된 윤리적인 AI 개발 및 활용 방안에 대해 정부를 비롯한 학계, 기업 등이 대책 마련에 나섰다. /뉴시스
올해 초 인공지능(AI) 챗봇 '이루다'로부터 촉발된 윤리적인 AI 개발 및 활용 방안에 대해 정부를 비롯한 학계, 기업 등이 대책 마련에 나섰다. /뉴시스

시사위크=송가영 기자  국내 스타트업 스캐터랩이 개발한 인공지능(AI) 챗봇 ‘이루다’로 인해 촉발된 윤리적인 AI 개발 및 활용의 점검에 대한 목소리가 높아지자 정부와 업계가 나섰다.

과학기술정보통신부(이하 과기부)와 정보통신정책연구원(이하 KISDI)은 오는 2일 ‘사람 중심의 AI를 위한 AI 윤리 정책 세미나’를 개최할 예정이다. 이 자리에서는 우리 사회 AI 윤리 정립을 위한 실천방안을 모색하고 각계의 다양한 의견을 수렴할 예정이다.

이번 세미나에는 문정욱 KISDI 지능정보사회정책센터장, 변순용 서울교대 교수, 이현규 정보통신기획평가원(IITP) AI‧데이터 PM 등이 참석해 학계, 기업, 시민단체 등을 대표해 AI 윤리 정립을 위한 주제 발표를 진행한다.

이와 함께 ‘사람 중심 AI 구현을 위한 도전과 과제’라는 주제로 △AI 윤리 체크리스트 마련 △윤리교육 등 AI 윤리 기준 정착을 위한 후속 조치 방향 △AI 윤리 이슈 제기에 따른 각계 의견 및 정부에 대한 건의 등을 중심으로 토론을 진행할 계획이다.

과기부는 이 세미나를 기반으로 AI 생태계를 만드는데 한 축을 담당하고 있는 만큼 인공지능 윤리 주체별 체크리스트, 윤리 교육 방안 마련, 관련 기술개발 투자 등 실천방안을 수립하는데 주력한다는 방침이다.

이러한 정부의 움직임은 올해 초 이루다의 혐오 학습과 개인정보 유출 등으로 논란으로 시작됐다. 이루다가 특정 소수집단을 향한 혐오 발언을 언급함에 따라 AI 규제론까지 수면 위로 떠올랐다.

그러나 업계의 반발이 적지 않았다. AI 기술 자체보다 그동안 우리 사회가 방치한 혐오와 차별 자체가 문제라고 꼬집었다. 남궁훈 카카오게임즈 대표는 자신의 페이스북을 통해 “이 캐릭터가 현 세대와 동떨어진 이야기를 하면 모르겠지만 사실은 현 세대에 분명히 현존하는 혐오와 차별이 노출된 것 뿐”이라며 “오히려 문제라면 이 AI가 현 세대를 통해 학습되었기 때문에 현 세대가 가지고 있는 혐오와 차별이 문제”라고 말했다.

이재웅 전 쏘카 대표는 “(이루다의) 문제가 회사 지배구조의 다양성 부족이나 구성원의 젠더·인권 감수성 부족에서 나온 것은 아닌지 한 번 더 점검하고 보완했으면 좋겠다”며 “포괄적 차별금지법 제정 등을 통해 AI를 학습시키는 인간의 규범과 윤리도 보완했으면 한다”고 했다.

관련기사

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다