어린 시절, 만화영화를 보고 자란 아이들이라면 대부분 ‘로봇’을 좋아할 듯 싶다. 기자 역시 로봇을 매우 좋아하는 어린이들 중 하나였으며, 주인의 명령에 복종하고 악당을 물리치는 로봇의 모습은 든든한 수호자이자 좋은 친구라는 생각을 막연히 하곤 했다.

하지만 초등학교에 입학할 무렵, TV에서 방영한 SF영화 ‘터미네이터’를 보고 큰 혼란에 빠졌었다.

분명 사람들을 지켜주는 ‘정의의 용사’라고 믿어왔던 로봇이 무표정한 얼굴로 온몸이 불에 타면서까지 주인공을 죽이기 위해 끝까지 따라오는 모습은 너무 충격적이었다. 때문에 영화를 본 뒤 한동안 로봇 만화가 무서워 보지 못했다.

그로부터 20년이 흐른 지금, 다시 한 번 그때의 두려움이 슬금슬금 몰려오는 듯하다. 물론 어린 시절처럼 단순히 로봇이 사람을 죽이기 위해 따라온다는 단순한 공포감은 아니다. 최근 발달하고 있는 ‘인공지능(AI)’이 과연 인간 기준의 ‘도덕’을 이해할 수 있을지에 대한 두려움 때문이다. 

AI는 엄연히 프로그램된 ‘기계’이며 인간의 도덕적 판단보다 계산상의 효율을 중시할 가능성이 매우 높다. 설사 도덕적 판단을 넣는다 하더라도, 이를 완전히 이해하는 것은 힘들 것이다. 

예를 들어 다수를 구하기 위해 소수를 희생할 수 있는지 판단해야 할 문제 상황을 뜻하는 ‘트롤리 딜레마(Trolly dilemma)’에 직면할 경우를 생각해보자. 고장난 기차가 달려오는 상황에서 한 레일에는 5명의 인부가, 다른 레인에는 1명의 인부가 일을 하고 있다. 여기서 레일 변환기로 기차의 운행 방향을 바꾸면 5명의 인부 대신 1명의 인부만 죽는다. 하지만 바꾸지 않는다면 5명의 인부가 죽게 된다. 과연 우리는 어떤 결정을 내릴 수 있을까.

일반적인 ‘사람’이라면 딜레마에 빠질 수밖에 없을 것이다. 효율상으론 5명의 사람을 살리는 게 맞지만, 생명의 무게는 결코 저울질 할 수 없기에 1명을 희생시키는 것이 결코 옳다고 볼 수 없기 때문이다. 하지만 AI라면 주저없이 5명을 살리는 것을 택할 가능성이 매우 높다. ‘효율’이 좋기 때문이다. 

여기에 AI가 그동안 우리 사회에 뿌리 깊게 자리잡아왔던 인종·성·종교·국가 등과 연관된 차별에 대한 데이터를 학습하게 되면 공정성과 투명성, 책임성에 문제가 발생할 수 있으며, 개인의 프라이버시를 침해할 가능성도 매우 높다.

이 같은 문제를 해결하기 위해 우리나라를 포함한 OECD, 유럽연합(EU) 등 세계 각국과 국제기구, 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙을 발표하는 등 AI 윤리기준 마련을 위한 노력을 지속하고 있다. 하지만 그럼에도 아직까지 모호한 주체성, 단어 등의 개선 사항은 너무나 많은 상황이다. 또한 산업 규제로 이어질 수 있다는 반발에 기업들의 참여를 이끌어 나가기 힘들다는 장애물도 존재한다.

이제 AI 사회의 도래는 거스를 수 없는 시대적 흐름이 되어가고 있다. 하지만 명확한 AI의 윤리 기준을 확보하고 이를 정부와 기업, 연구자들이 지킬 수 있도록 하지 않는다면 AI는 축복이 아닌 인간을 위협하는 존재로 다가올 수 있을 것이다. 부디 확실한 AI의 윤리 기준이 마련돼 ‘터미네이터’가 아닌, 어린 시절 만화 영화 속의 ‘착한 AI’가 되길 기대해 본다.

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다