AI의 발달로 웹서핑을 할 때 나의 취향을 반영한 검색이 이뤄지고 있다. AI는 평소 이용자의 성향을 데이터로 분석하고 선호도가 높은 콘텐츠 위주로 노출시킨다. 하지만 이는 뉴스콘텐츠 등에도 포함돼  ‘확증편향’으로 이어질 수 있다는 지적이 나오고 있다./ Getty images

시사위크=박설민 기자  인터넷에서 웹서핑을 하다보면 ‘내가 좋아하는’ 주제의 연관 콘텐츠가 자주 등장하는 것을 느낄 수 있다. 예를들어 유튜브·넷플릭스 등 OTT(온라인 동영상 서비스)를 이용할 때 내가 동물을 좋아해 평소에 자주 검색했다면, 추천 동영상에 주로 고양이나 개와 연관된 영상 또는 야생동물 관련 다큐멘터리 등이 등장하는 식이다. 

이처럼 이용자가 선호하는 콘텐츠 위주로 검색되는 것은 구글, 유튜브 등 인터넷 플랫폼들이 ‘인공지능(AI)’ 기반의 검색엔진을 이용하고 있기 때문이다. 검색엔진에 적용된 AI가 평소 이용자의 성향을 데이터로 분석한 후 선호도가 높은 콘텐츠 위주로 먼저 송출하는 것. 

하지만 선호도 위주의 검색 AI시스템은 자칫 자신이 기존에 믿거나 좋아하는 정보만 받아들이려 하고, 자기 생각에 어긋나는 정보는 거부하는 ‘확증편향’으로 이어질 수 있다는 지적이 나오고 있다.

◇ 내 취향만 반영하는 편파적 뉴스검색… “사회 분열 초래할수도”

AI의 확증편향 문제는 IT업계 전문가들도 우려하고 있다. 우리나라에서 AI분야를 선도하는 기업 중 하나인 이동통신사 SK텔레콤도 AI의 확증편향이 미래에 위험한 부작용을 초래할 수 있다고 지적했다.

박정호 SK텔레콤 사장은 20일 개최된 ‘제3회 누구 컨퍼런스 2020’에서 “유튜브나 넷플릭스를 보면 AI가 추천해주는 영상을 보는 방식이 있어 추천영상을 지속해 접하면 자신의 취향과 생각에 부합한 영상(뉴스 등)만 접하게 된다”며 “이는 확증편향을 강화하고 있으며, 이 때문에 세상이 분열되고 있다”고 강조했다. 

실제로 구글, 네이버, 다음 등 인터넷 플랫폼에 AI검색 시스템이 도입된 이후, 이용자들에게 올바른 사회적 상황 파악을 힘들게 할 수 있는 ‘뉴스콘텐츠’에 대한 AI의 편향적 검색은 심각한 수준이다. 정치 성향이 보수인 사람은 보수 진형을 옹호하는 뉴스 기사와 영상이, 정치 성향이 진보인 사람은 진보 진형을 옹호하는 콘텐츠가 메인으로 검색된다. 

전문가들은 “AI의 자동 추천 검색으로 인해 이용자들은 정보에 선택적으로 노출되고, 자신이 가진 신념, 결정에 부합하는 정보만을 취하게 돼 정치 이슈에 있어 자신의 취향에 우호적인 매체 기사만을 지속적으로 보게될 것”이라고 지적한다. 

지난해 8월 21일 한국방송학회가 주최한 ‘유튜브와 정치편향성, 그리고 저널리즘의 위기’ 세미나에서도 AI를 활용한 유튜브의 추천 알고리즘이 뉴스를 접하는 사람들의 정치 편향성을 강화한다는 연구결과가 발표된 바 있다.

세미나에서 발표를 맡았던 최홍규 EBS 미래교육연구소 연구위원은 “유튜브를 자주 시청하는 19세~75세의 이용자들에게 유튜브 정치 뉴스를 노출하고 설문한 결과, 유튜브 이용시간이 증가할 경우, 해당 정치 콘텐츠는 편파적이지 않고 신뢰할 수 있으며, 자신의 의견과 유사하다고 느끼는 등의 상관성을 보였다”며 “유튜브의 콘텐츠 추천 시스템에 노출돼 자신의 정치성향과 연관도가 높은 콘텐츠를 지속적으로 접하게 될 경우, 정당 지지에 대한 태도변화가 나타났다”고 덧붙였다.

AI의 편향적 뉴스콘텐츠 추천에 대해선 다수의 이용자들도 우려하고 있는 상황이다. 방송통신위원회와 정보통신정책연구원이 지난해 5월 발표한 ‘지능정보사회 이용자 패널조사’에 따르면 뉴스 이용자 중 57.8%가 뉴스에 대한 AI의 자동 추천 서비스 결과로 본인의 사고나 가치관이 편향될까 두렵다는 의견을 내비쳤다.

일반적인 음악, 영화 등에서 AI의 자동 추천 검색은 큰 도움을 준다. 자신이 보고 싶어 하는 콘텐츠 위주로 볼 수 있기 때문이다. 하지만 뉴스의 경우 양쪽의 의견을 다 보고 판단을 내릴 필요가 있는 콘텐츠다. 따라서 자신의 취향에 맞는 뉴스만 보다보면 결국 확증편향이 생길 위험이 있다. 박정호 SK텔레콤 사장도 “AI를 통한 추천 검색은 확증편향을 강화하고 있으며, 이 때문에 세상이 분열되고 있다”고 비판했다.

◇ AI의 확증편향, 뚜렷한 대책은 아직 없어… “알고리즘 감시할 중립기구 있어야”

다만 아직까지 AI의 확증편향 검색 문제를 막을만한 개선방안이 뚜렷하진 않은 상황이다. 구글, 넷플릭스, 유튜브, 네이버 등 대부분의 IT업체들이 자사에서 사용하고 있는 뉴스와 콘텐츠 추천 알고리즘 방식은 ‘영업 비밀’이기 때문이다. 또한 AI의 알고리즘과 관련된 규제 대상과 법적 개념을 구체적으로 정의하기 어렵고, 기술 혁신 저해를 가져올 수 있다는 지적도 있다.

지난해 11월 개최된 ‘미디어 알고리즘과 민주주의’ 학술행사에서 발표를 맡은 구본효 서울대 법과대학원 연구원도 “AI 알고리즘과 관련된 규범적 개념을 정의하긴 어렵고, 규제 대상과 내용 사이의 괴리, 기술 혁신 저해 우려 등의 문제로 AI 알고리즘에 대한 규제는 한계가 있다”고 설명했다. 

7일 국회 과방위의 과학기술정보통신부(이하 과기정통부) 국정감사에서 최기영 과기정통부 장관 역시 네이버 등 포털의 AI알고리즘의 확증 편향을 없애는 것이 굉장히 어려운 일이라는 것을 인정한 바 있다.

최기영 장관은 “AI의 알고리즘을 중립적으로 만드는 것은 굉장히 어려운 일이며, 편향되게 만드는 것은 반대로 쉽게 가능하다고 본다”며 “AI 알고리즘 공개는 영업비밀의 문제도 있어 개선이 쉽지 않으며 중립적으로, 편향성이 없도록 강제하는 것은 또다른 어려움이 있을 수 있다”고 밝혔다.

한국인공지능윤리협회(KAIEA)는 14일 성명을 통해 이 같은 AI의 확증 편향성 논란을 해결하기 위해선 AI알고리즘의 편향성을 검증하는 중립적 기구의 도입이 필요할 것으로 보고 있다. AI 제작 단계에서 AI알고리즘에 제작자의 편향된 사고가 데이터로 학습돼 구현될 가능성이 높다는 것. 

KAIEA는 성명서를 통해 “최근 국회에서 주요 정당 대표의 연설기사의 포털서비스 노출과 관련해 뉴스 편집 AI알고리즘의 중립성 및 편향성에 대한 논란이 있었다”며 “이는 단순한 정치적 문제로만 볼 것이 아니라 최근 국내외 인터넷과 모바일 기업에서 무분별하게 도입하고 있는 AI 자동화 알고리즘에 대한 근본적인 문제를 살펴볼 필요가 있다”고 지적했다.

이어 KAIEA는 “AI 자동화 알고리즘에 얼마든지 윤리적 문제가 제기될 수 있음에도 불구하고, 아무런 검증 없이 과도하게 신뢰하거나 무분별하게 활용하는 것은 문제”라며 “AI알고리즘의 중립성을 사전과 사후에 판단할 수 있는 체계적인 시스템이 필요하며, 편향성을 검증하고 올바르게 지도할 수 있는 중립적 기구의 설치도 반드시 필요할 것”이라고 제언했다.

KAIEA 전창배 이사장은 “AI 알고리즘의 중립성은 정부가 판단하면 규제가 될 수 있고, 기업이 스스로를 판단하면 그 자체로 중립적일 수 없다는 문제가 생긴다”며, “AI 알고리즘의 편향성의 검증과 판단은 모든 관련 주체가 논의하되, 비영리단체 등 중립적인 기구가 맡는 것이 올바른 해결책”이라고 전했다.
 

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다