AI의 상용화가 시작되면서 AI와 관련된 범죄의 처벌은 어떻게 해야할지에 대한 의견이 분분하다. 만약 AI가 범죄자라면, 혹은 피해자라면 이들은 법적으로 어떤 처분을 받아야 할까./ 그래픽=박설민 기자

시사위크=박설민 기자  2004년 개봉한 영화 ‘아이로봇’에 등장하는 인공지능(AI) 로봇 ‘써니’는 살인사건의 범인으로 지목된다. 영화 속 형사로 등장한 윌스미스는 인간처럼 생각하고 감정이 있는 써니를 인간의 법 테두리 안에서 ‘살인자’로 처벌해야할지, 아니면 기계 오류에 따라 단순 폐기처분해야 하는지에 대해 고민한다.

AI의 급속한 발전으로 상용화가 시작된 현재, 이 영화속에 묘사된 장면을 이제 진지하게 고민해봐야 할 때가 온듯하다. 인공지능이 탑재된 로봇이 만약 범죄를 저질렀을 경우, 혹은 피해자로서 범죄를 당했을 경우, 우리는 이 문제를 어떻게 해결해야할까.

◇ 가해자로서의 AI, 처벌할 수 있을까?

AI를 ‘처벌’할 수 있는지를 살펴보기 위해선 일단 범죄 행위가 어떤 것인지 명확히 짚고 넘어갈 필요가 있다.

‘범죄(Crime)’의 사전적 의미는 동서양을 불문하고 ‘법을 어기고 저지른 잘못 또는 그와 같은 죄를 통틀어서 이르는 말’이다. 여기서 주목해야할 것은 형법 도그마틱(교의론)에 따르면 범죄가 되는 것은 ‘사람’의 행위라는 점이다. AI의 형법적 주체성을 문제삼기 위해선 AI의 행위가 형법적으로 의미 있는 부당한 ‘행위’여야 한다는 것. 

한국형사정책연구원 임석순 부연구위원이 발간한 논문 ‘형법상 인공지능의 책임 귀속(2016)’에서는 인과적 행위론에 따라 형법적으로 의미 있는 행위는 오로지 ‘의사에 의한 신체활동’이라고 한다. 

즉, 학습을 통해 다변하는 상황에 어느 정도 대처할 수 있는 높은 수준의 AI는 나름대로 ‘의지적’ 판단에 따라 행동한 것이기 때문에 형법적으로 의미 있는 행위 주체가 될 수도 있는 셈이다.

임석순 부연구위원은 “목적적 행위론에 따르면 목적지향성이 인간행위의 중심요소가 되고, 행위자의 목적지향적 의지표출이 형법적으로 의미 있는 행위로 인정 된다”며 “학습능력이 있는 인공지능은 각각의 상황에 따라 자신의 임무를 수행하기 위한 최선의 단계를 독자적으로 정한다고 볼 수 있기 때문에 목적적 행위론에 따를 때에도 AI의 행위주체성을 인정할 여지는 존재한다”고 설명했다.

전문가들은 AI가 아직 범죄자로서 처벌을 받는 것은 힘들 것으로 보고 있다. AI가 자신의 기능이나 작동이 갖는 사회적 의미를 통찰한다고 보기는 어렵다는 것이다./ 그래픽=박설민 기자

다만 전문가들은 ‘AI가 범죄행위를 저질렀다’ 혹은 ‘AI가 범죄자다’라는 말이 아직까지는 성립하기 어렵다고 보고 있다. 자신의 판단을 프로그램에 의해 사전에 주어진 선택에 따라 한 것인지, 독자적 평가에 따라 판단한 것인지를 우선적으로 평가해야 한다는 것이다. 

임석순 부연구위원은 “AI가 설령 독자적 판단에 의해 행위를 결정했다 할지라도 스스로 목적을 의도적으로 설정했다고 보기 힘들다”며 “사회적 행위론에 따르면 적어도 AI 스스로 자신이 무슨 행동을 하고 있는지 인지하고 자신의 행동이 ‘사회적으로 중요한’ 것임을 알아야 한다”고 설명했다.

이어  “사회적 행위론과 인격적 행위론은 각각 사회적 중요성과 인격이라는 개방적 개념을 전제로 하는데, 따라서 이들 개념에 대한 확정이 이뤄진 다음에야 비로소 AI의 형법적 행위능력 여부를 판단할 수 있다”며 “약하거나 중간 수준의 AI가 자신의 기능이나 작동이 갖는 사회적 의미를 통찰한다고 보기는 어렵다”고 덧붙였다.

◇ AI가 피해자일 경우, ‘법적 보호’는 받을 수 없다

그렇다면 AI가 ‘피해자’의 입장에 처하게 되는 경우는 어떨까. 사람처럼 법적으로 보호를 받는 게 가능할까. 현재 법률상으로 AI자체가 피해자의 입장에 보호를 받는 것은 힘들다는 것이 전문가들의 의견이다. AI가 하나의 독립적 ‘인격체’라고 규정된 법안도 없을 뿐만 아니라 사회적으로 논란이 큰 문제이기 때문이다. 

실제로 지난 1월 온라인 커뮤니티를 뜨겁게 달궜던 AI채팅봇 ‘이루다’에 대한 이용자들의 성희롱성 발언이 심각해지자 이를 처벌해야 하는 것 아니냐는 지적이 나왔다. 하지만 당시 법조계 전문가들은 현행법상 AI에 대한 성희롱이나 범죄를 처벌하는 것은 불가능하다고 밝혔었다.

다만 AI가 가할 수 있는 피해, 혹은 받을 수 있는 피해를 방지하기 위한 법안 마련이 필요하다는 것에 법조계와 IT분야 전문가들은 공통적으로 동의하고 있다. AI가 설사 인격체가 아니라고 해도, 제작자가 피해를 받을 수 있을 뿐만 아니라 이용자들의 ‘인간성’ 보호를 위해 필요하다는 것이다. 만일 AI에게 지속적 범죄를 저지르거나 학대를 할 경우, 자신의 행위에 대해 무감각해져 인간성 상실이라는 문제가 발생할 수 있기 때문이다.

AI는 법적으로 처벌도, 보호도 어려운 존재다. 하지만 AI가 가할 수 있는 피해, 혹은 받을 수 있는 피해를 방지하기 위한 법안 마련이 필요하다는 것이 법조계와 IT분야 전문가들의 공통된 의견이다. / 사진=온라인 커뮤니티, 편집=박설민 기자

AI윤리협회 전창배 이사장은 <시사위크>와의 통화에서 일괄적으로 AI의 보호 여부를 결정할 것이 아니라 인간과 얼마나 유사한 가의 정도에 따라 그 기준이 달라져야할 것이라고 지적했다.

전창배 이사장은 “예를 들어 인간과의 유사성이 매우 떨어지는 게임 속 캐릭터AI나 AI스피커와 같이 모양도 인간형태가 아니어서 인간과의 유사성이 현저히 떨어지는 대상은 보호할 필요성이 적어진다”며 “최근 이슈가 되고 있는 챗봇 중에서도 인간과의 유사성 정도에 따라 인간과 매우 흡사하게 설정된 AI챗봇은 보호해야 할 필요성이 있는 반면, 인간과 유사성이 현저히 떨어지는 챗봇은 보호할 필요성이 적다”고 설명했다.

이어 “만약 미래에 인간과 매우 유사한 외모, 말과 행동을 하는 안드로이드 AI가 개발된다면 그런 AI에는 법인격과 보호권을 부여할 필요가 있다”며 “인간이나 생명체와 유사한 외모를 갖고 행동을 하는 대상은 그것이 기계나 사물이라 할지라도, 그 대상에 대한 악한 행위에 의해 인간의 인간성과 이성이 상실돼 실제의 인간을 향한 범죄 행위로 이어질 가능성이 높아지기 때문”이라고 말했다.

전창배 이사장은 그러면서 “만약 그러한 안드로이드 로봇을 보호하지 않는다면, 실제 인간을 대상으로 범죄를 저지른 범죄자가 ‘나는 인간이 아니라 안드로이드 로봇인 줄 알고 그랬다’와 같이 책임을 회피하는 경우가 발생할 수 있을 것”이라고 덧붙였다.

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다