인공지능(AI) 기술의 전면적인 상용화가 목전에 다가오면서 윤리적 문제도 함께 떠오르고 있다. 이에 따라 각 분야 전문가들은 AI산업육성 전략뿐만 아니라 AI의 윤리적 판단으로 인해 초래될 수 있는 사회적 문제를 미연에 방지하기 위한 윤리 가이드라인의 마련이 필요할 것이라고 지적한다./ 그래픽=박설민 기자

시사위크=박설민 기자  인공지능(AI) 기술이 획기적으로 발달함에 따라 AI 자율주행차량, 자동화 로봇, AI 의료 기술, 개인맞춤형 투자 AI 등 미래 신산업 분야도 주목받고 있다. 특히 신종 코로나바이러스 감염증(코로나19) 팬데믹 사태는 AI가 실제 산업에 수용되는 것을 가속화 하고 있어, 향후 AI의 진출 분야는 더욱 넓어질 것으로 전망된다.

다만 AI기술의 전면적인 상용화가 목전에 다가오면서 떠오르는 문제들도 적지 않다. 기능적 오류, 실제 적용가능성 논란 등 해결해 나가야 할 문제도 산적해 있는 실정이다. 특히 AI의 ‘윤리적 문제’와 법적 책임 방향 등이 주요 논쟁의 소지가 되고 있다.

이에 따라 IT, 법조계 전문가들은 AI산업육성 전략뿐만 아니라 AI의 윤리적 판단으로 인해 초래될 수 있는 사회적 문제를 미연에 방지하기 위한 윤리 가이드라인의 마련이 필요할 것으로 판단하고 있다.

◇ ‘도덕적 딜레마’에 직면한 AI… “효율이나, 윤리냐”

AI의 윤리적인 문제가 거론되는 근본적인 이유는 AI가 사람이 아닌 ‘기계’라는 점이다. 컴퓨터 데이터를 통해 결정되는 AI의 판단에는 인간 행동의 기초인 ‘도덕적 감정’이 반영될 수는 없다. 설사 AI가 인간의 행동을 데이터화 하고 학습한다해도, 흉내를 내는 정도일 뿐이다.

따라서 AI는 도덕적인 판단이 필요한 상황에서조차 결국 자신의 연산상에서 가장 유리한 결론을 도출하게될 것이고, 이는 인간 기준에서 윤리적 문제를 발생시킬 가능성이 있다. 이것이 AI가 가지고 있는 윤리적 딜레마다. 

AI와 인간의 가장 큰 차이점은 '감정'의 유무다. 인간의 감정은 때때로 비효율적인 판단을 내리지만 이는 '윤리'에 기반한 판단이다. 하지만 효율을 가장 우선시할 AI의 경우 윤리적 문제에 대해 이해하기 힘들 것이다./ 그래픽=박설민 기자

AI가 효율만을 따질 경우 발생할 수 있는 윤리적 문제는 제임스 카메론 감독의 SF영화 ‘터미네이터2’에서 잘 드러나 있다. 주인공 존 코너는 자신을 지키러 온 터미네이터 T-800에게 ‘절대 사람을 죽이지 말라’는 명령을 내린다. 명령에 복종해야 하는 터미네이터는 이를 이해하지 못한 채 ‘알았다’고 대답한다. 

이후 자신들을 저지하는 경비원의 다리를 총으로 쏴버린 터미네이터에게 존 코너가 크게 화를 내자 ‘죽이지는 않았다’고 대답한다. 터미네이터 입장에선 자신을 방해하는 경비원을 제압하기 위해 총을 쏜 것이고, ‘즉시’ 죽이지도 않은 것이니 합리적인 선택을 한 셈이다. 물론 인간의 입장에선 매우 옳지 않은 결정이겠지만 말이다.

다수를 구하기 위해 소수를 희생할 수 있는지 판단해야 할 문제 상황을 뜻하는 ‘트롤리 딜레마(Trolly dilemma)’에 직면할 경우에도 AI의 도덕적 판단 문제가 불거질 가능성이 높다.

고장난 기차가 달리고 있는 상황에서, 한 레일 위에는 5명의 인부가, 또다른 레일에선 1명의 인부가 일을 하고 있다. 여기서 레일 변환기로 기차의 방향을 바꾸면 5명의 인부 대신 1명의 인부가 죽는다. 이때 우리는 레일변환기를 돌릴 수 있을까.

만약 단순한 피해만을 계산하는 AI라면 인부 1명을 희생해 5명을 구한다는 결론을 아주 쉽게 도출할 수 있겠지만, 윤리적으로 사람 생명의 무게는 결코 함부로 저울질할 수 있는 사항이 아니다. 

이 같은 트롤리 딜레마는 AI를 이용한 자율주행 자동차의 경우 가장 우려되는 문제 중 하나다. 예를 들어 자율주행으로 운행 중인 버스가 있다고 가정해보자. 이때 버스 앞에 갑자기 어린아이가 나타났다면, 일반적으로 버스기사는 강제로 핸들을 돌려 피할 것이다. 이 과정에서 대형사고로 이어질 위험도 분명 존재한다.

반면 효율성을 우선시하는 AI의 경우, 버스 안에 승객들의 숫자가 눈 앞의 어린아이보다 훨씬 많다. 이때 승객들의 '최소한'으로 피해를 볼 수 있는 방향으로 판단할 경우, AI는 아마도 어린아이를 그대로 치고 지나가는 것이 효율적이라고 판단할 수도 있다.

트롤리 딜레마는 21세기 자율주행차에서 해결해야할 가장 중요한 문제다. 이에 IT업계 관계자들은 인명피해가 일어날 수밖에 없는 상황에서 과연 누구를 희생하도록 할지, 양쪽 피해를 최소화할 수 있을지에 대한 AI 알고리즘을 설계하기 위해 고군분투 중이다./ Getty images

◇ 편견있는 데이터 분석… ‘디지털 불평등’ 우려도

AI의 데이터 분석 결과로 인해 ‘디지털 불평등 현상’이 발생할 수 있다는 우려도 나오고 있다. 날씨, 주식, 과학기술 등의 분야 등 ‘객관적’인 정보들을 AI가 해석할 경우엔 매우 높은 효율을 기대할 수 있지만,  사회적으로 쌓아온 편견이 반영된 데이터를 해석할 경우 불공정한 분석결과를 내놓을 수 있다는 것이다. 

실제로 인종, 적성, 성격, 성별, 나이, 가정형편 등이 담긴 인적사항을 베이스로 분석한 AI들이 사회적 윤리에 맞지 않는 분석 결과를 내놓은 사례가 나타나면서, AI가 불평등을 초래할 수 있다는 우려가 현실이 되고 이다.

지난 4월엔 구글이 개발한 AI는 흑인이 온도계를 들고있는 사진을 ‘총을 든 범죄자’로 해석해 논란이 됐다. 반면 똑같은 사진에서 흑인의 팔을 하얀색으로 바꾸자 ‘온도계를 든 일반인’으로 정상 해석했다. 

기존에 쌓였던 ‘흑인이 범죄자가 많다’는 인식이 AI의 판단에도 고스란히 반영된 결과다. 구글의 AI는 지난 2018년에도 흑인을 고릴라로 인식해 인종차별 논란을 일으킨 바 있다.

또한 코로나19로 인해 정식 시험을 치르지 못한 영국의 고등학교들은 학생들에게 AI알고리즘을 통해 학점을 부여했는데, 교육환경이 평균적으로 좋은 부유 가정 학생이 예상보다 좋은 학점을, 가난한 학생은 낮은 학점이 주어졌다. 

다만 IT분야 전문가들은 AI의 도덕문제에 대한 해답도 중요하지만 AI나 디지털 기술의 도입으로 수많은 사람에게 줄 수 있는 혜택 역시 고려해야할 필요가 있다고 조언한다. 

앨런 AI 연구소 CEO 오렌 에치오니 워싱턴대 교수는 지난 10일 개최된 ‘aix.2020 컨퍼런스’에서 “트롤리 딜레마와 같은 문제도 중요하지만 AI와 자율주행 기술로 고속도로에서 사망하는 수많은 사람을 얼마나 구해낼 수 있는지 등도 중요한 문제”라며 “사람들에게 좀더 직접적으로 도움을 줄 수 있는 AI기술을 하루빨리 만드는 것이 중요하다”고 전했다.

AI의 데이터 분석 결과로 인해 ‘디지털 불평등 현상’이 발생할 수 있다는 우려도 나오고 있다. 수많은 데이터 가운데, 인종차별, 성차별, 가정형편 등 여러가지 편견이 담겨있는 데이터 역시 엄청나게 많기 때문이다. AI가 이를 분석해 결과를 도출할 경우, 사회적으로 불공정 문제가 불거질 가능성이 높다./ 픽사베이

◇ 전문가들 “AI 윤리 문제 관련 법률적·정책적 방안 마련해야”

전문가들은 AI시대가 도래한 현재 발생할 수 있는 도덕적 딜레마를 줄이기 위해선 AI기술 및 서비스 적용 분야 특성에 맞춘 법률적·정책적 대응방안이 필요하다고 지적한다.

라이언 칼로 미국 워싱턴대학 로스쿨 교수도 2015년 ‘캘리포니아 법률 리뷰’에 기고한 논문을 통해 “현행 법률로는 향후 도래할 로봇과 AI 세상에 효과적으로 대처하기 어렵다”며 “로봇과 AI를 다룰 법률의 마련이 필요하다”고 주장했다. 또한 AI와 관련된 다양한 쟁점에 대해 논의할 수 있는 ‘연방로봇위원회Federal Robotics Commission)’도 필요할 것이라고 제안했다. 

우리나라 ICT정책 연구를 담당하는 정보통신정책연구원도 2018년 10월 발간한 연구보고서에서 AI 윤리 문제에 대응하고, 관련 규범들을 산업에서 관철시키기 위해서는, 그와 관련한 정책 대응의 구조를 미리 마련할 필요가 있다고 분석했다.

정보통신정책연구원은 보고서에서 “AI 윤리이슈 대응정책의 프레임워크 및 적용 기준을 다양한 산업 분야와 서비스에 적용하기 위해선 개발자, 사업자, 이용자 등 각 분야 이해 당사자들이 함께 모여 숙의하는 절차와 과정이 충분히 확보돼야 한다”고 밝혔다.

또한 AI의 성능이 고도화될수록 예상치 못했거나 의도치 않은 행위의 위험성이 증가하는 만큼, 이를 대비할 수 있는 개발·활용 기준의 구체적 준거도 필요하다고 봤다. 이에 따라 AI기술의 제작과정을 공정하게 관리·감독하고, 윤리적 기준을 갖춰 출시됐는지에 대한 AI설계 전문가들의 점검과, 이용자들이 안전하고 윤리적으로 인공지능을 이용할 수 있도록 하는 구체적인 산업별, 서비스별 인공지능 윤리 규범준수 기준의 제시가 필요할 것이라고 제언했다.

다만 IT업계 관계자들은 연구원과 기업이 AI와 관련된 법률적 규정과 권고사항 등을 적용한 방향으로 연구를 진행할 수 있으며, 이를 위해선 먼저 정부의 정책과 사회적 합의가 마련돼야할 것으로 보고 있다.

현대자동차 김정희 AIRS컴퍼니 리더는 지난 10일 개최된 ‘aix.2020 컨퍼런스’에서 “AI의 윤리적 딜레마는 자율주행과 AI 이슈가 나올때마다 등장하는 문제”라며 “이것은 회사나 엔지니어 수준에서 결정할 사항이 아닌, 사회적 합의가 필요한 것”이라고 설명했다.

이어 “AI로 인한 오류, 도덕적 문제 등으로 피해가 발생할 경우, 고객들에게 설명이 가능한가도 중요하다”며 “이는 굉장히 어려운 분야로 현재 석학들과 연계해 연구를 진행하고 있다”고 전했다.
 

관련기사

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다