인공지능(AI) 기술이 발전하면서 그에 맞는 윤리기준이 필요하다는 지적이 커지고 있다. 이에  AI 윤리 문제를 해결하기 위해 세계 각국은 서둘러 AI와 관련된 윤리 기준 마련에 애를 쓰고 있다. 우리나라 정부 역시 23일 대통령 직속 4차산업혁명위원회 전체회의에서 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 마련했다./ 사진=Getty images, 편집=박설민 기자

시사위크=박설민 기자  #미래에 인간을 지배하려는 기계로부터 인류를 책임져야 할 존 코너는 자신을 보호하는 터미네이터 T-800에게 적일지라도 ‘사람을 죽여선 안 된다’는 명령을 내린다. 이에 T-800은 기밀 시설에 침입한 자신과 존 코너를 제지하는 경비원의 다리를 총으로 쏴 제압하고, 존 코너는 T-800에게 멍청하다며 화를 낸다.

1991년 개봉한 SF영화 ‘터미네이터2’의 한 장면이다. 인공지능(AI)이 탑재된 로봇 T-800이 존 코너의 명령을 오인한 것을 코믹하게 묘사한 것이다.

하지만 AI기술의 상용화가 빠르게 진행되고 있는 현재 시점에서 본다면 다소 소름끼치는 내용이 아닐 수 없다. 우리가 생각하는 ‘선’의 기준과 AI가 생각하는 효율적 측면이 충돌할 수 있다는 것을 나타내고 있기 때문이다. 

실제로 AI는 성차별, 인종차별 등의 윤리적 문제를 일으킬 수 있다는 지적을 많이 받고 있다. 2018년 미국의 IT기업 아마존이 인재 채용을 위해 개발한 AI가 여성 지원자를 거의 모두 탈락시킨 것이 대표적 예다. 기존에 남성 직원들이 많이 분포된 데이터를 기반으로 효율만을 따져 분석한 데 따른 결과다. 

이 같은  AI 윤리 문제를 해결하기 위해 세계 각국 정부는 서둘러 AI와 관련된 윤리 기준 마련에 애를 쓰고 있다. OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙이 발표되고 있다.

우리나라 정부 역시 다른 IT선진국들과 마찬가지로 마찬가치로 AI 윤리기준 확보에 나섰다. 과학기술정보통신부(이하 과기정통부)는 23일 대통령 직속 4차산업혁명위원회 전체회의에서 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 마련했다고 밝혔다.

1991년 개봉한 SF영화 ‘터미네이터2’에 등장하는 T-800은 주인인 존 코너는 목숨걸고 지키지만, 이를 조금이라도 방해하는 이들에겐 가차없이 총을 쏘거나 폭력을 가한다. 영화 속에서 코믹한 장면으로 묘사되긴 하지만, 실제 AI가 적용될 시 발생할 수 있는 윤리적 문제의 모습과 유사하다./ 영화 터미네이터2 캡처

◇ 과기정통부, ‘인간성’ 있는 AI 위해 3대원칙 및 10대 핵심요건 마련

이번에 발표된 윤리 기준은 윤리적 인공지능을 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 인공지능 개발부터 활용 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시한다. 이번 기준 마련엔 한국인공지능윤리협회(KAIEA) 등 AI·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 참여했다. 지난달 27일 초안 발표를 했으며, 이달 7일 공청회를 거쳐 의견이 수렴됐다.

과기정통부 관계자는 “올해 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계해 ‘인간성을 위한 인공지능(AI for Humanity)’를 목표로 하는 윤리기준 초안을 마련했다”고 이번 AI 윤리기준 마련의 배경을 밝혔다.

과기정통부 등 관계부처에서 발표한 AI윤리기준의 핵심 내용은 △인간 존엄성 원칙 △사회의 공공선 원칙 △기술의 합목적성 원칙의 3대 기본원칙을 담고 있다.

3대 기본원칙은 AI 개발 및 활용 과정에서 고려될 원칙을 일컫는다. 과기정통부는 인간성이 있는 AI를 위해 기술 개발 과정에서 활용에 이르는 전 과정에서 고려돼야 할 기준으로 해당 원칙을 제시했다고 밝혔다.

첫 번째 원칙인 ‘인간 존엄성 원칙’은 AI의 안전성과 견고성을 갖춰 인간의 생명, 정신·신체적 건강에 해가되지 않는 범위에서 개발 및 활용돼야 한다는 내용을 담고 있다. 

두 번째 ‘사회의 공공선 원칙’은 AI에 대한 사회적 약자·취약계층의 접근성을 보장하고, 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다는 원칙이다.

세 번째 ‘기술의 합목적성 원칙’은 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다는 원칙이다. AI 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용돼야 하며 그 과정도 윤리적이어야 한다는 것이 이 원칙의 핵심이다.

아울러 과기정통부는 AI 윤리의 3대 기본원칙을 실천하고 제대로 이행할 수 있도록 ‘10대 핵심요건’도 제시했다. 10대 핵심내용은 △인권 보장 △프라이버시 보호 △다양성 존중 △침해금지 △공공성 △연대성 △데이터 관리 △책임성 △안전성 △투명성의 요건이다. 이를 기반으로 AI 개발·활용에 동등한 권리를 존중하고, 모든 사람에게 공정하게 적용될 수 있도록 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화한다는 방침이다.

이번 AI윤리기준 마련에 참여했던 한국인공지능윤리협회 전창배 이사장은 <시사위크>와의 인터뷰에서 “기존의 AI윤리기준들을 포괄하는 통합적인 윤리 가이드라인을 만들고자 했다”며 “특히 우리나라 상황에 좀 더 부합하는 한국적인 인공지능 윤리 가이드라인을 만드는 것에 가장 초점을 맞췄다”고 말했다.

과기정통부에서 발표한 AI 윤리의 3대 기본원칙과 10대 핵심요건./ 사진= Getty images, 그래픽=박설민 기자 

◇ 과도한 산업규제 우려도… 전문가들 “법제화 할 때 규제적 조항은 최소화해야”

AI 업계 관계자들과 전문가들은 AI 윤리기준을 마련한 것에 대해 대체적으로 환영한다는 분위기다. AI기술개발 및 상용화에 필요한 가이드라인이 어느정도 제시됐다고 보기 때문이다. 

다만 해당 윤리기준에 대해 정확한 주체와 단어 등이 모호해 현재 존재하는 프라이버시 보호 법안 등과 겹치며 과도한 산업 규제로 이어질 수 있다는 것 우려가 나오고 있다.

실제로 이번 AI 윤리기준 마련을 위해 지난 7일 과기정통부에서 주최했던 ‘국가 AI 윤리기준(안)에 관한 공청회’에 참석한 서정연 서강대학교 컴퓨터공학과 교수는 “우리나라는 프라이버시 침해에 있어 이미 법적 규제가 매우 잘 되어있는 나라”라며 “AI에 대한 과도한 불안감 조성이 규제로 이어진다면 AI 기술 발전을 저해할 수 있을 것”이라고 우려했다.

윤명 소비자시민모임 사무총장 역시 “이번 AI 윤리기준안은 모호한 표현들이 많아 실제 가이드라인에 기술개발이 적용될 수 있도록 구체화할 필요가 있다”고 지적했다.

이 같은 지적에 대해 한국인공지능윤리협회 전창배 이사장은 “이번에 과기정통부에서 발표한 AI윤리기준은 말 그대로 기본적이고 포괄적인 AI 윤리 가이드라인”이라며 “강제성이 있는 것은 아니고, 일반적인 도덕 기준에서 최소한의 기준이기 때문에 매우 넓고 포괄적인 규정들로 구성됐다”고 설명했다.

이어 “이러한 윤리기준들 안에서 일부 조항을 법제화하게 되는데, 윤리기준 서문에서도 ‘산업·경제 분야의 자율규제 환경을 조성함으로써 인공지능 연구개발과 산업 성장을 제약하지 않고, 정당한 이윤을 추구하는 기업에 부당한 부담을 지우지 않는 것을 목표로 한다’고 밝혔다”고 덧붙였다.

다만 전창배 이사장 역시 정부가 실제 AI 윤리기준을 법제화할 때 규제적 조항은 최소한으로 그쳐야 할 필요가 있다고 지적했다. 우리나라는 아직 AI 선진국들에 비해 기술력이 매우 뒤처져 있기 때문에 규제가 많으면 AI 산업발전이 어려워질 수 있다는 것이다.

전창배 이사장은 “범죄적 목적의 AI개발이나 AI의 악용, 개인정보보호, 저작권 문제 등 꼭 필요한 부분만 법제화하는 핀셋규제 방식이 필요하다”며 “이러한 법률을 제정할 때에도 정부 단독으로 만드는 것이 아니라, 기업계, 학계, 연구단체, 시민 등 모든 유관 주체들이 모여 논의와 합의를 거쳐 제정하는 것이 바람직하다”고 전했다.
 

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다