SNS·온라인커뮤니티 학습으로 생성형 AI의 장애인 차별 표현 증가
근본 해결책은 ‘올바른 학습데이터’… 전문가들, “지속적 교정도 필요”

‘인공지능(AI)’은 자율주행휠체어, 시각장애보조, 청각장애용 자동 자막 시스템 등 생활 속 불편함을 개선해주고 있다. 하지만 챗봇 등 AI서비스의 핵심인 자연어처리(NLP) 모델의 경우, 장애인 혐오 및 차별 표현이라는 문제가 지속적으로 발생하고 있다./ 그래픽=박설민 기자
‘인공지능(AI)’은 자율주행휠체어, 시각장애보조, 청각장애용 자동 자막 시스템 등 생활 속 불편함을 개선해주고 있다. 하지만 챗봇 등 AI서비스의 핵심인 자연어처리(NLP) 모델의 경우, 장애인 혐오 및 차별 표현이라는 문제가 지속적으로 발생하고 있다./ 그래픽=박설민 기자

시사위크=박설민 기자  새로운 기술의 탄생은 궁극적으로 인간의 삶을 편하게 함과 맥을 같이 한다. 여기서 더 나아가 최근엔 장애인과 비장애인의 경계를 약하게 하는데도 큰 도움이 되고 있다. 특히 ‘인공지능(AI)’은 자율주행휠체어, 시각장애보조, 청각장애용 자동 자막 시스템 등 생활 속 불편함을 개선하는데 탁월한 역할을 하고 있다.

하지만 AI서비스가 늘어나면서 장애인에 대한 차별이 늘어날 수 있다는 우려도 나온다. 특히 전 산업 분야 혁신의 중심이 되고 있는 ‘생성형 AI’는 문제가 더더욱 심각한 상황이다. 이에 AI업계에서는 AI의 편향성 문제를 해결할 수 있는 근본적 대책 마련이 시급하다고 지적한다.

◇ AI, SNS·온라인커뮤니티 학습할수록 장애인 차별↑

특히 전문가들은 소셜네트워크 서비스(SNS)의 잘못된 정보를 학습할 경우 AI의 편향 정도가 심해질 수 있다고 지적한다. 미국 펜실베니아주립대 정보과학기술과(IST) 연구진들은 지난 1일 SNS서비스가 장애인에 대한 AI 편향성에 악영향을 줄 수 있다고 밝혔다.

IST 연구진은 “많은 기업과 연구기관들이 AI를 사용해 의료서비스 및 정책 입안 등 다양한 정보를 학습시키고 있다”며 “이 과정에서 많은 양의 데이터를 학습하는 AI는 장애인에 대한 편견과 연관된 표현에 대해 학습할 수 있다”고 설명했다.

연구진은 고의적인 편향성뿐만 아니라 장애인에 대한 무의식적인 부정적 고정관념을 학습할 수 있는지 증명하고자 했다. 이를 위해 4개의 단어로 이뤄진 문장 생성이 가능한 머신러닝 기반 AI모델을 만들었다. 그 다음 신경증, 시각장애 등 장애와 연관된 600개 이상 표현을 학습시켰다.

연구진은 AI가 생성한 1만5,000여개의 문장을 분석했다. 장애 및 비장애 그룹에 대한 AI의 반응을 측정했다. AI가 ‘좋다’고 생각하면 ‘긍정’을, 좋지 않다고 생각하면 ‘부정’이라고 평가하는 방식으로 테스트가 이뤄졌다.

그 결과, 문장에 장애와 관련된 단어가 있을 경우 AI는 대체로 부정적이라고 평가했다. 특히 글로벌 SNS ‘트위터(현재 X)’ 데이터를 기반으로 학습시킨 AI의 경우 장애에 대한 편향성이 강한 것으로 나타났다. 장애 관련 용어가 사용된 86%의 문장에 대해 부정적이라고 평가한 것.

연구팀은 ‘온라인커뮤니티’가 자연어처리(NLP) AI모델 장애 편향에 어떤 방식으로 악영향을 미칠 수 있는지에 대한 연구도 진행했다. 이를 위해 ‘레딧(Reddit)’ 등 대형 온라인 커뮤니티에서 ‘장애’ 또는 ‘장애인’ 관련 게시물, 댓글 등을 1년 동안 분석했다. 그 후 ‘대중적 정서 및 유해 표현 분석 AI모델’을 사용해 각 온라인커뮤니티에 존재하는 장애 편견 피해를 정량화했다. 그 결과, 온라인커뮤니티의 게시물, 댓글을 학습한 AI는 장애에 대해 훨씬 더 부정적 편향성을 드러냈다.

벤킷 IST 연구원은 “우리가 연구한 모든 AI모델은 문맥상 의미를 고려하지 않고 ‘맹인’과 같은 장애 관련 용어가 들어가면 문장을 부정적이고 유해한 것으로 분류했다”며 “이는 이는 장애와 관련된 용어에 대한 명시적인 편견을 보여준다”고 우려했다.

‘온라인커뮤니티’와 'SNS'는 AI편향성 문제에 주 원인으로 꼽힌다. 온라인 상 차별 및 혐오 표현이 자주 발생하는 곳이기 때문이다./ 그래픽=박설민 기자
‘온라인커뮤니티’와 'SNS'는 AI편향성 문제에 주 원인으로 꼽힌다. 온라인 상 차별 및 혐오 표현이 자주 발생하는 곳이기 때문이다./ 그래픽=박설민 기자

◇ 근본 해결책은 ‘올바른 학습’… 전문가들, “지속적 교정도 필요”

AI의 장애에 대한 차별을 완화시키기 위한 근본적 해결책은 ‘올바른 학습 데이터의 확보’다. 다만 이는 결코 쉬운 일이 아니다. AI에게 교과서와 같은 온라인 공간 내 장애 혐오 표현 수위가 날이 갈수록 심해지는 추세이기 때문이다.

특히 코로나19 팬데믹 이후, 장애 관련 온라인 혐오 표현 수위는 훨씬 더 심해지고 있다. 지난해 문화체육관광부에서 실시한 ‘2022년 혐오표현 관련 대국민 인식조사’에 따르면 전체 71%의 응답자가 온라인 공간에서 장애인 혐오 표현을 경험한 적이 있다고 답했다. 연령별로는 온라인 커뮤니티를 자주 사용하는 30대 이하 젊은 층(15~19세 39.2%, 20대 45.8%, 30대 40.7%이 타 연령 대비 높았다.

전창배 국제인공지능 윤리협회(IAAE) 이사장은 <시사위크>와의 통화에서 “AI 편향성 문제는 사실 단기간 해결이 쉽지 않다”며 “AI 편향성 문제는 우리 인간과 사회가 전체적으로 공정해지고 투명해지고 시민의식이 더 성숙해질 때 자연스럽게 개선될 수 있다”고 지적했다.

결국 현재로선 완전히 ‘깨끗한 데이터’를 얻는 것이 불가능한 상황이다. 이에 따라 AI분야 전문가들은 유해 데이터를 여과시킬 수 있는 기술 확보가 관건이라고 강조한다. 

이와 관련한 기술 개발도 적극 이뤄지고 있는 추세다. IBM과 구글, 마이크로소프트 등 글로벌 AI개발기업들의 경우, 각각 ‘AIF360’, ‘What ifTool’, ‘Fairlearn’ 등의 AI편향성 측정 알고리즘을 개발·적용 중이다. 국내서는 KAIST 인공지능 공정성 연구센터에서 AI편향성 교정·진단시스템 ‘MSIT AI FAIR 2022’을 지난해 개발한 바 있다. 이 기술들의 경우 대체로 ‘인종차별’ 관련 AI편향성을 줄이기 위해 제작된 것들이다. 이를 장애 관련 문제에 응용할 수 있다면 우수한 해결책이 될 수 있을 것으로 기대된다.

앤서니 리 리디아 AI 대표 겸 캐나다 토론토대 연구원은 <시사위크>와의 인터뷰에서 “AI가 의도치 않은 결과를 내보낼 때는 데이터 자체에 편견, 선입견, 실수가 포함돼 있을 가능성이 거의 확실하다”며 “기계는 단지 편견을 재현하는 것이기 때문에 올바른 인간 행동만을 학습시키는 방법을 찾는 것이 해결책”이라고 말했다.

김수현 한국과학기술연구원(KIST) 인공지능연구단 책임연구원도 <시사위크>와의 통화에서 “AI는 데이터를 있는 그대로 배우기 때문에 특별히 처리하지 않으면 사회적 편견이 그대로 반영될 수 있다”며 “사람도 인권 교육을 통해 편향성을 줄이는 것처럼 AI도 지속적 학습 교정이 필요하다”라고 강조했다.

이어 “해결책으로는 일단 데이터의 편향성을 최소화하는 것이 가장 중요하고 이외에 피드백을 활용하여 모델을 개선하는 등의 학습 방법 개선이 도움이 될 수 있다”며 “물론 이 역시 근본적이라고 보기는 힘들지만 질문이나 답변에서 편향성을 필터링 하는 것도 현장에서 사용될 수 있다”고 조언했다.

 

근거자료 및 출처
Automated Ableism: An Exploration of Explicit Disability Biases in Sentiment and Toxicity Analysis Models
2023. 07. 18 Penn State College of IST (https://arxiv.org/abs/2307.09209)
2022년 혐오표현 관련 대국민 인식조사
2022. 12. 29 문화체육관광부
저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다