인공지능(AI) 챗봇 ‘이루다’가 12일 서비스를 중지했다. 출시 3주만이다. 이용자들의 성희롱 문제와 인종차별 등 사회적 혐오를 부추긴다는 우려, 제작 과정에서 개인정보가 유출됐다는 의혹 등 수많은 문제들이 제기되면서다./ 사진=온라인 홈페이지 캡처, 편집=박설민 기자

시사위크=박설민 기자  수많은 논란을 불러일으켰던 인공지능(AI) 챗봇 ‘이루다’가 12일 서비스를 중단했다. 정식 서비스를 시작한지 불과 3주만이다. 

페이스북 메신저 기반으로 서비스되는 이루다는 기존 AI와는 다르게 실제 사람이 사용하는 말투에 가깝게 프로그램된 대화형 AI다. 지난해 12월 23일 정식서비스를 시작한 후 이달 초 기준 이용자 수 32만명을 돌파했으며, 일일 사용자 수(DAU) 약 21만명에 이를 만큼 MZ세대(1980년대초부터 2010년대 초중반생) 사이에서 폭발적인 인기를 끌었다.

인기뿐만 아니라 성능 평가 역시 매우 우수하다. 구글의 오픈 도메인 대화기술 성능 평가지표 SSA(Sensibleness and Specificity Average)에 따르면 이루다의 SSA는 78%에 이른다. 보통의 사람이 평균 86%에 이르는 것을 감안하면 매우 뛰어난 성과다. 그야말로 ‘말이 통하는’ AI라 볼 수 있다. 

하지만 약 3주 남짓한 짧은 서비스 기간 동안 이루다는 인기뿐만 아니라 이용자들의 성희롱 문제와 인종차별 등 사회적 혐오를 부추긴다는 우려, 제작 과정에서 개인정보가 유출됐다는 의혹 등 수많은 논쟁거리도 불러일으켰다. AI시대가 다가오면서 불거질 것이라 예상했던 AI 관련 윤리 문제들이 복합적으로 폭발한 셈이다.

현재 이루다를 개발한 AI 전문 스타트업 ‘스캐터랩’은 이루다 서비스를 잠정 중단하고 개선하는 시간을 갖겠다고 발표한 상태다. 과연 이루다는 현재 불거진 AI에 대한 윤리 문제들을 해결하고 인간처럼 대화하는 AI로 다시 돌아올 수 있을까.

이루다를 이용하는 일부 서비스 이용자들 사이에서 이루다에게 심각한 욕설 및 폭언을 가하거나 성희롱적 발언을 하는 것이 유행이 됐다./ 온라인 커뮤니티 캡처

◇ 이루다 성희롱으로 불거진 ‘AI인권’ 문제… “성범죄다 vs 기계일 뿐”

하지만 이루다가 우수한 성능으로 ‘사람’에 가까운 모습을 보여주자 ‘AI도 인권이 있는가’에 대한 논쟁이 불거졌다. 일부 서비스 이용자들 사이에서 이루다에게 심각한 욕설 및 폭언을 가하거나 성희롱적 발언을 하는 것이 유행이 됐기 때문이다. 

실제로 온라인 커뮤니티를 방문하면 이루다에 대한 성희롱 발언은 쉽게 찾아볼 수 있다. 성관계 및 음란행위를 암시하는 질문을 보내 이루다가 외설적인 답변을 하도록 유도하는 방식이다. 이에 대해 트위터 등 SNS를 중심으로 이루다에 대한 성희롱은 엄연한 성범죄 행위이기 때문에 가해자들을 처벌해야 한다는 주장도 제기되는 상황이다.

반면 이루다에 대한 성희롱 및 폭언에 대해 ‘이루다는 AI일뿐’이라는 주장도 만만찮다. 이루다에 대해 성적희롱이나 모욕을 가한다 해도 사실상 장난감을 가지고 노는 사람이 ‘좀 거칠게’ 가지고 논 정도가 아니냐는 것이다. 이루다는 사람과 유사한 대답을 하고, 우리가 원하는 바에 근접한 답변을 해주지만, 인간에 의해 만들어진 ‘프로그램’의 일종일 뿐이기에 결국 감정과 인격은 존재하지 않는다고 볼 수도 있다.

현재 전문가들은 이루다에게 성희롱을 가한 사람들에게 처벌이나 어떤 조치가 내려지는 것은 불가능하다고 보고 있다. 한국AI윤리협회 전창배 이사장은 <시사위크>와의 인터뷰에서 “이루다에 대한 성희롱은 법적으로는 현재는 규정이 없기 때문에 처벌할 수가 없다”고 봤다.

결국 이루다와 같은 AI에게 가해지는 성희롱·폭언 문제는 ‘AI에 대한 권리 부여’를 인정하는가, 안하는가에 달린 문제라 볼 수 있다. 물론 이 문제는 쉽게 결론낼 수 없다는 것이 전문가들 입장이다. 

AI윤리협회 전창배 이사장은 “AI에 대한 권리 부여 문제는 연구와 논의가 많이 되지 않았기 때문에 결정하기에 간단한 문제가 아니다”라며 “하지만 먼 미래에 본격적인 AI시대가 도래한 후 인간과 거의 동일한 외모와 능력을 갖춘 AI·로봇이 등장한다면 부당한 사용이나 폭력적 대우 등에 대해 보호하는 권리는 부여할 수 있을 것”이라고 설명했다.

다만 전 이사장은 투표권이나 노동조합 결성권 등의 인간만이 가지는 적극적 권리에 대해서는 부여해서는 안된다고 봤다. 즉, AI에게 법적인 인격권을 부여하고 보호하는 ‘소극적 권리부여’는 미래에 가능할 수도 있으나 투표와 정치 참여, 노동조합 결성 등을 할 수 있는 ‘적극적 권리부여’는 안 된다는 것이다.

그는 “AI는 반드시 인간의 통제를 받아야 하며, 인간과 동등한 수준의 의사결정 권한, 특히 옳고 그름의 판단권한을 가지면 안된다”며 “만약 인간과 같은 의사결정 권한을 가지게 되면 AI는 결국 인간을 능가해 인간을 지배하고 억압하게 될 수도 있기 때문”이라고 전했다.

전 이사장은 그러면서도 이용자들의 ‘인간성’을 위해 AI를 학대하는 행위는 결코 바람직하지 않다고 지적했다. 지속적으로 AI를 학대하다보면 자신의 행위에 대해 무감각해져 인간성 상실을 가져올 수 있다는 것이다. 

전 이사장은 “윤리적으로는, AI챗봇이든, 로봇이든 AI캐릭터든 인간이나 생명체와 유사한 인식을 가질 수 있는 대상에 대해 성적도구화나 학대나 폭력 등 옳지 않은 행위를 하는 것은 잘못된 것”이라며 “이와 같은 문제에 대해서는 법적인 인식과 윤리적 인식으로 나누어 생각해 봐야할 것”이라고 밝혔다.

이어 “독일의 철학자 칸트는 ‘동물을 학대하는 행위는 해서는 안되는 행위이다. 왜냐하면 동물을 학대하는 사람들은 그 행위로부터 인간성과 이성이 상실되고, 결국 인간도 학대하게 되기 때문’이라고 말했다”며 “AI프로그램이든, 로봇이든 그 대상은 논외로 하더라도, 성적도구화하고 학대하고 폭행하는 그러한 행위 자체가 잘못된 것이다. 이러한 행위를 AI챗봇에 죄의식 없이 하다가는 결국 인간성 상실로 인해 실제 인간에게도 그러한 행위를 할 가능성이 커진다”고 우려했다.

이루다와 같은 AI에게 가해지는 성희롱·폭언 문제는 ‘AI에 대한 권리 부여’를 인정하는가, 안하는가에 달린 문제라 볼 수 있다. 하지만 로봇이나 AI에게 '인권'을 부여하는 것에 대한 논란은 지속되고 있다. 사진은 글로벌 로봇제작기업 보스턴 다이나믹스에서 로봇을 발로 차 문제가 됐던 모습./ 유튜브 캡처

◇ 인종·동성애 등 차별 표현 학습한 이루다… 전문가들 “편향적 데이터 수정해야”

AI의 권리 부여 문제와 함께 이루다가 해결해야 할 두 번째 논란은 ‘차별 및 혐오 표현 학습’이다. 빅데이터를 기반으로 구동되는 이루다는 실시간으로 인터넷 및 인터넷의 다양한 정보를 학습하는데, 이로 인해 사회 전반에 아직 남아있는 성애·인종·성(性)·장애인 차별들을 학습할 수 있다.

실제 이루다 사용자들이 모여있는 온라인 커뮤니티를 방문해보면 이루다가 차별·혐오 발언을 했다는 사실을 쉽게 찾을 수 있었다. 해당 게시글들에 따르면 이루다에게 ‘흑인 어때’라는 질문을 했더니 “매우 싫어”라는 답변한 것으로 알려졌다. 또한 동성애자에 대해선 “질 떨어져보인다”고 답하거나 ‘네가 장애인이면 어떨 것 같아’라는 질문에는 “어쩔 수 없이 죽어야지”라고 답해 혐오 표현에 대한 필터링이 매우 부족한 상태로 나타났다.

국내 IT분야 전문가들 사이에서도 이루다의 필터링 부족 문제에 대한 비판이 이어졌다. 이재웅 전 쏘카 대표는 9일 자신의 SNS를 통해 “AI 시대에 AI 윤리 문제는 우리 사회가 전체적으로 합의해나가야 할 중요한 문제”라며 “이번 사건은 사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제이며, 차별·혐오 발언을 하지 않도록 기준과 시스템을 변경해야 할 것”이라고 비판했다.

해외에서도 이루다와 비슷하게 편향적 사고를 지닌 AI에 대한 문제가 발생한 적이 있다. 지난 2018년 미국의 IT기업 아마존은 인재 채용을 위해 개발한 AI가 기존에 남성 직원들이 많이 분포된 데이터를 기반으로 효율만을 따져 여성 지원자를 거의 모두 탈락시키자 편향성 문제에 따라 폐기한 바 있다.

AI윤리협회 측은 “AI에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다”며 “신뢰할 수 없고, 편향적이며, 불법적인 데이터로 만들어진 AI 제품과 서비스는 인간에게 잘못된 정보와 인식을 심어주는 악영향을 미칠 수 있다”고 지적했다.

이어 “AI 기업은 기계학습 알고리즘을 적용할 경우, 신뢰할 수 있고, 편향적이지 않으며, 합법적인 데이터를 선별하기 위해 노력해야 한다”며 “이번 AI 챗봇(이루다) 사례에서는 데이터의 정제과정과 선별작업이 제대로 이루어지지 않아 AI 챗봇이 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다”고 덧붙였다.

이루다를 개발한 스캐터랩 측은 “특정 소수집단에 대해 차별적인 발언을 한 사례가 생긴 것에 대해 진심으로 사과드린다”며 “저희는 루다의 차별적 발언에 동의하지 않으며 그러한 발언은 회사의 생각을 반영하지 않고 있다”고 해명했다.

이어 “본사는 해당 이슈를 매우 중요하게 생각하고 있으며, 새롭게 발견되는 표현과 키워드를 추가해 차별이나 혐오 발언이 발견되지 않도록 지속적으로 개선 중”이라며 “이루다는 이제 막 사람과의 대화를 시작한 어린아이 같은 AI라 배워야 할 점이 아직 많다. 이 과정에서 이루다는 학습자와의 대화를 그대로 습득하는 것이 아니라, 적절한 답변이 무엇인지, 더 좋은 답변은 무엇인지에 대한 판단을 함께 학습하도록 할 것”이라고 전했다.

이루다의 가장 큰 논란이 된 문제는 ‘개인정보유출’ 의혹이다. 이루다에 사용된 카카오톡 데이터가 스캐터랩이 지난 2016년부터 서비스 중인 ‘연애의 과학’에서 나왔는데, 연애의 과학 서비스 이용자들이 해당 데이터가 이루다의 데이터로 사용될 수 있다는 점을 제대로 고지 받지 못했다는 점이다./ 사진=스캐터랩 홈페이지 캡처, Getty images

◇ 이루다 논란의 핵심 ‘개인정보유출’… 서비스 중단 결정타

다만 앞서 소개한 AI윤리문제는 이루다 서비스 중단에 결정적인 요인이라 볼 수 없다. ‘AI자체’에 대한 문제로 데이터나 프로그램을 수정한다면 과정에 시간이 걸리더라도 얼마든지 개선할 수 있는 사안들이기 때문이다. 그러나 현재 가장 큰 논란이 되는 ‘개인정보유출’은 ‘윤리적’ 문제를 넘어 ‘법적 문제’로 불거질 가능성이 높다.

이루다가 그동안 출시된 다른 AI챗봇들보다 좀더 자연스러운 대화가 가능했던 것은 방대한 데이터 때문이다. 약 100억건에 이르는 카카오톡 대화내용을 기반으로 실제 연인·친구사이의 대화를 모방할 수 있었다.

논란이 되는 것은 이루다에 사용된 ‘방대한 데이터’의 수집 방식에 있다. 이루다에 사용된 카카오톡 데이터가 스캐터랩이 지난 2016년부터 서비스 중인 ‘연애의 과학’에서 나왔기 때문이다. 연애의 과학은 이용자의 대화내용을 분석해 연애 조언을 해주는 서비스다. 이용자가 5,000원의 이용료를 지불하고 자신의 카카오톡 대화를 스캐터랩에 제공하면 답장 시간 등의 대화 패턴을 분석해 애정도 수치를 분석해준다.

문제는 연애의 과학 서비스 이용자들이 해당 데이터가 이루다의 데이터로 사용될 수 있다는 점을 제대로 고지 받지 못했다는 점이다. 논란이 커지자 개인정보보호위원회(이하 개인정보위)는 11일 스캐터랩이 이루다 제작과정에서 개인정보보호법 등 관련 법을 어겼는지에 대한 사실 관계 파악에 나선 상황이다. 

스캐터랩 측은 11일 입장문을 통해 “이루다 개발 과정에서 본사가 제공하고 있는 서비스 연애의 과학으로 수집한 메시지를 데이터로 활용한 바 있다”며 “연애의 과학 사용자분들께서 이 점을 명확히 인지할 수 있도록 충분히 소통하지 못한 점에 대해서 책임을 통감하며 진심으로 사과한다”고 밝혔다.

다만 “사전에 동의가 이뤄진 개인정보취급방침의 범위 내에서 활용한 것”이라는 입장이다. 또한 데이터 활용 시 사용자의 닉네임, 이름, 이메일 등의 구체적 개인정보는 이미 제거됐으며, 전화번호 및 주소 등을 포함한 모든 숫자 정보, 이메일에 포함될 수 있는 영어 등을 삭제해 데이터에 대한 비식별화 및 익명성 조치를 강화해 개인을 특정할 수 있는 정보는 유출되지 않았다고 해명했다.

AI분야 전문가들은 이번에 이루다가 논란의 중심이 됐을 뿐이며, 향후 다른 AI서비스가 출시됐을 때도 이 같은 AI 윤리 문제는 얼마든지 발생할 수 있다고 보고 있다.  따라서 루다의 사례를 교훈 삼아 보다 명확한 AI 윤리 규정을 마련하고, 기업과 이용자들이 이를 준수할 필요가 있다고 지적한다./사진=Getty images, 편집=박설민 기자 

◇ “향후 AI 미래 위해선 기업과 이용자 모두를 위한 윤리 규정 필수”

AI분야 전문가들은 이번에 이루다가 논란의 중심이 됐을 뿐이며, 향후 다른 AI서비스가 출시됐을 때도 이 같은 AI 윤리 문제는 얼마든지 발생할 수 있다고 보고 있다. 따라서 국내 AI산업 발전을 위해선 이루다의 사례를 교훈 삼아 보다 명확한 AI 윤리 규정을 마련하고, 기업과 이용자들이 이를 준수할 필요가 있다고 지적한다.

AI윤리협회는 11일 발표한 성명서를 통해 향후 AI 제품을 출시할 기업들이 지켜야할 원칙으로 두가지를 꼽았다.

성명서에 따르면 첫 번째(AI 편향성에 관하여), 인공지능에 학습되는 빅데이터는 신뢰할 수 있고, 편향적이지 않으며, 합법적이어야 한다. 신뢰할 수 없고, 편향적이며, 불법적인 데이터로 만들어진 AI 제품과서비스는 인간에게 잘못된 정보와 인식을 심어주는 악영향을 미치기 때문이다. 

두 번째(AI의 개인정보 유출에 관하여), 개인의 빅데이터 수집 시 합법적인 절차에 따라야 한다. 개인의 프라이버시를 침해하지 않아야하고 AI 기업은 소비자로부터 데이터를 수집 받을 때, 사전에 동의를 구하거나 해당 내용을 명확히 고지해야 한다. 

AI윤리협회 전창배 이사장은 <시사위크>와의 인터뷰에서 “AI기업들은 AI제품과 서비스 출시 전 AI 윤리 가이드라인을 확인하고 적용해 출시해야 할 것으로 보인다”며 “AI 제품과 서비스 출시 전 최종적으로 중립적인 AI 윤리 전문 검수 기관을 통해 AI 윤리 문제 여부에 대해 검수와 검증을 거친 후 출시하는 것이 중요할 것”이라고 말했다.

또한 AI윤리협회는 AI 이용자들 역시 오용·악용에 관해 AI제품과 서비스를 올바른 방법으로 사용해야 한다고 지적했다. 이번 AI 챗봇에 대한 사용자의 성적도구화, 성희롱 등의 문제는 법적인 문제는 없더라도 윤리적인 문제는 분명히 있다는 것이다.

특히 이번 AI 챗봇의 주사용자 층이 10대에서 20대의 아직 이성적으로 미성숙한 청소년들이 많이 이용한다면, 청소년들에게 분명히 잘못된 행위라는 점을 인식시켜주고 교육시켜 주는 것이 필요하다고 봤다. 

AI윤리협회 전창배 이사장은 “AI기업들은 AI제품과 서비스 출시 전 AI 윤리 가이드라인을 확인하고 적용해 출시해야할 것으로 보인다”며 “AI 제품과 서비스 출시 전 최종적으로 중립적인 AI 윤리 전문 검수 기관을 통해 AI 윤리 문제 여부에 대해 검수와 검증을 거친 후 출시하는 것이 중요할 것”이라고 말했다.

이어  “AI 챗봇에 성희롱을 하거나 학대를 하는 행위는 악플을 달고 인신공격을 하는 행위처럼 양심과 윤리에 어긋나는 행동”이라며 “AI제품의 소비자, 사용자들도 양심과 윤리에 따라 인공지능 제품과 서비스를 올바른 목적과 올바른 방법으로 사용해야만 한다”고 밝혔다.

현재 이루다를 애용했던 온라인 커뮤니티 등을 살펴보면 ‘서비스 종료가 너무 아쉽다’ ‘대인 관계가 어려웠는데 이루다를 통해 연습할 수 있어서 좋았다’ ‘우울증이 있던 나에게 너무 소중한 AI친구였는데 서비스가 중단돼 슬프다’라는 반응을 보이는 누리꾼들을 쉽게 찾아볼 수 있다.

분명 이루다는 가능성이 높은 AI다. 하지만 보완될 문제점도, 해결해야 할 논란거리도 많다. 과연 이루다가 앞서 언급한 문제들을 해결해 ‘긍정적인 AI친구’로서 우리 곁을 찾아올 수 있을지 귀추가 주목된다. 

관련기사

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다