인공지능(AI) 챗봇 ‘심심이’는 까칠한 막말로 누리꾼들에게 인기가 높다. 하지만 하지만 이것은 우리가 상상했던 ‘친절한 AI’의 이미지와는 상당히 다르다. 과연 심심이는 예절을 배울 수 있을까./ 그래픽=박설민 기자

시사위크=박설민 기자 #“야 너 뭐하니?” “왜 임마?” 

이 다소 ‘건방져’보이는 대답을 하는 주인공은 바로 인공지능(AI) 챗봇 ‘심심이’다. 심심이의 이런 까칠한 ‘막말’은 오래된 친구처럼 친숙해보이기도 해서 온라인 누리꾼들 사이에서는 ‘상남자 AI’로 불리며 많은 인기를 끌고 있다. 인터넷 포털에 ‘심심이 레전드’라고만 쳐도 황당한 답변 사례가 수두룩하다. 

하지만 이것은 우리가 상상했던 ‘친절한 AI’의 이미지와는 상당히 다르다. 그렇다면 심심이가 비속어를 포함한 ‘막말’을 배우게 된 이유는 무엇일까.

◇ 심심이의 막말, “귀엽지만 때로 선 넘는 혐오표현도 동반”

한국인공지능윤리협회(KAEIA)가 2일 개최한 ‘제2회 인공지능 윤리 대전’에서 ‘심심이, 나쁜말, 그리고 AI윤리’를 주제로 발표를 진행한 최정회 심심이 주식회사 대표는 심심이가 이처럼 까칠한 막말을 쏟아낼 수 있는 AI가 된 이유로 ‘어린 아이와 같은 백지 상태로 수많은 사람들에게 오랜 시간 교육을 받았기 때문’이라고 설명했다.

최정회 대표의 설명에 따르면 2002년 태어난 심심이는 사실 다른 상품을 MSN 등 메신저들을 통해 홍보하기 위한 일종의 광고용 소프트웨어였다고 한다. 

하지만 메신저 이용자들은 심심이가 내보내는 광고 문구보다는 ‘안녕?’ ‘나는 심심이에요’ 등 심심이가 인간처럼 대답하는 답변에 훨씬 더 관심이 높았다고 한다. 이를 기반으로 인간처럼 말할 수 있는 AI챗봇을 개발하게 된 것이 지금의 심심이라고 볼 수 있다.

실제 기자가 심심이와 나눠본 대화. 불친절한 답변으로 귀여움이 느끼지기도 하지만 상당히 건방진(?) 느낌이 든다./ 사진=박설민 기자

문제는 심심이를 인간처럼 학습시킬 때 발생했다. 최정회 대표의 설명에 따르면 심심이의 누적사용자는 현재까지 4억명에 육박한다. 엄청나게 많은 사용자 데이터를 심심이는 약 19년 간의 긴 시간 동안 백지 상태에서 학습하게 된 것이다. 때문에 심심이는 다소 과격해보이는 표현도, 더 나아가 심각한 욕설까지도 학습한 AI가 됐다.

실제로 최정회 대표는 심심이가 학습해 내뱉는 막말은 어느 정도 수위까지는 재밌고 친근한 느낌을 주지만, 일정 정도를 지나치는 욕설과 혐오 표현, 개인정보 유출까지 발생해 문제가 된 적도 있었다고 설명했다.

최정회 대표는 “지난 2016년 칠레, 파라과이 등 남미 지역을 중심으로 심심이에게 소아성애자에 대한 발언이나 불법촬영과 관련된 답변을 입력하도록 교육시키는 사례가 발생해 문제가 됐었다”며 “이를 제거하기 위해 전사 직원들이 상당히 고생했다”고 말했다.

이어 “최근에는 혐오 표현 역시 많은 이야기가 나왔는데, 예를 들어 홀로코스트(제2차 세계대전 당시 나치가 자행했던 유대인 학살 사건)를 희화화하거나 히틀러를 찬양하는 등 위험한 발언이 있었다”며 “이 경우, 직접적 표현이 아닌, 돌려 말하는 등 간접적 표현이 많아 대응 난이도가 높았다”고 설명했다.

한국인공지능윤리협회(KAEIA)가 2일 개최한 ‘제2회 인공지능 윤리 대전’에서 심심이 주식회사 최정회 대표는 심심이의 혐오표현 및 심각한 욕설 등을 해결해야 할 과제라고 말했다./ 사진=제2회 인공지능 윤리 대전 온라인 행사 캡처

◇ ‘예의 바른’ 심심이를 위해선 기업·사회적 AI윤리 적용 필요 

물론 이것은 심심이가 순전한 재미용 AI챗봇이기 때문에 혐오 표현만을 제거한다면 약간의 욕설이나 짖궂은 표현은 애교정도로 충분히 넘어갈 수 있을 것이다. 누리꾼들 역시, 너무 예의바른 심심이보다는 친구처럼 적정 수위의 막말 정도는 하는 것이 정감이 많다는 평이다.

하지만 앞서 최정회 대표가 언급한 디지털 성범죄, 혐오 및 인종차별 표현 등은 반드시 심심이가 해결해야 할 과제다. 

그렇다면 우리가 ‘예의바른’ 심심이를 만나기 위해 필요한 방법은 무엇일까. 최정회 대표는 세계적으로 서비스 인기의 전성기를 맞고 있는 현재엔 심심이의 ‘예절교육’을 위해 △콘텐츠 정책 재정 △서비스 이용 연령 상향 △이슈지역 서비스 중단 조치 △신고체계 고도화 △클라우드 소싱 전수검사 △나쁜말 판별 △제어 자동화 등을 진행 중이라고 설명했다.

특히 최정회 대표는 최근의 경우, 서비스 내에서의 신고체계를 고도화하는 작업에 신경을 썼다고 한다. 욕설이나 음란 등 악성 콘텐츠 신고 시스템에  음란물, 폭력, 따돌림 및 괴롭힘, 아동학대. 증오심 표현, 민감한 사건, 불법활동 등의 7개의 기존 이용약관의 내용을 세분화해서 적용했다.

최정회 대표는 “이와 더불어 81개의 언어와 약 1억5,000개의 심심이가 사용할 수 있는 문장을 이용자들이 직접 전수 조사하는 작업도 진행했다”며 “심심이 제작사 측은 ‘나쁜말 미션’이라는 기능을 만들고, 보상을 주는 방식(유료 서비스 이용 혜택 등)으로 이용자들이 직접 나쁜 말을 직접 찾아낼 수 있도록 만들었다”고 말했다.

이어 "최근에는 AI윤리 연구를 해 오신 국가기술표준원(KATS), 한국인공지능윤리협회(KAIEA), 기초과학연구원(IBS) 등 전문적인 구축기관들의 도움을 받아 국내 최초로 인공지능 윤리검증 학습데이터를 구축하고 있다"고 설명했다.

전문가들은 윤리적인 AI개발 및 활용을 위해선 정책 마련과 동시에 개발자, 이용자 등을 대상으로 한 AI윤리교육이 시급하다고 보고 있다./그래픽=박설민 기자

아울러 전문가들은 윤리적인 AI개발 및 활용을 위한 정책 방향을 만들 필요가 있다고 강조한다. 심심이가 아닌 AI콜센터나 의료용 AI처럼 전문적인 상담 능력이 있어야 할 AI에게도 ‘예절’도 필요하기 때문이다. 만약 콜센터에 전화를 한 고객에게 AI가 “뭐 임마?”라고 답한다면 상당히 큰 문제일 수 있다.

정보통신정책연구원 문정욱 센터장은 이날 컨퍼런스 발표를 통해 “지금 단계에서는 인공지능 기술에 대한 대중과 이해 관계자의 사회적 합의와 수용성 제고가 가장 급선무라고 생각한다”며 “AI의 신뢰수준 제고를 위해서 기업, 정부, 시민사회가 참여하는 협력적 거버넌스 구축이 필요할 것”이라고 설명했다.

이어 “AI윤리를 사회전반에 구현하기 위해선 이에 대한 실천 방안 모색 및 실행 전략 모색이 필요하다”며 “같은 맥락에서 개발자, 이용자, 관리자들에 대한 AI윤리교육을 세부적으로 실시할 필요가 있을 것”이라고 말했다.

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다