바야흐로 '인공지능'의 시대가 도래했다. AI는 이제 우리 사회와 산업계 전체에 적용되고 있는 핵심 기술이다. 하지만  ‘큰 힘에는 큰 책임이 따른다’는 것처럼, 이제 AI는 그에 대한 책임과 추구해햐할 가치방향도 중요한 시점에 도달했다./ 그래픽=박설민 기자

시사위크=박설민 기자  원시시대의 석기와 철기, 증기시대의 터빈, 산업화 시대의 전기처럼 현재를 대표하는 과학기술을 하나 꼽으라면 아마 ‘인공지능(AI)’의 시대라고 말할 수 있을 듯하다. 그만큼 AI는 현재 산업계와 우리 실생활 모든 분야에 빠르게 적용되고 있는 기술이기 때문이다.

하지만 ‘큰 힘에는 큰 책임이 따른다’는 영화 ‘스파이더맨’의 명대사처럼 AI가 발전할수록 그에 대한 책임과 추구해야 할 가치의 방향도 중요시될 수밖에 없다. 그렇다면 IT, 법률 등 각 분야 전문가들이 생각하는 AI가 추구해야 할 가치는 어떤 방향일까. 

◇ 시리 개발자, “미래 AI는 윤리 기반의 인간 중심 AI돼야”

이동통신사 SK텔레콤이 27일 ‘AI추구 가치와 기술’이라는 주제로 개최한 웨비나에서 ‘AI 추구 가치 및 향후 방향성’에 대해 발표를 진행한 톰 그루버 박사는 “AI가 빠르게 발전하는 현 시대에서 중요한 것은 ‘인간중심의 AI’가 돼야 할 것”이라고 설명했다. 톰 그루버 박사는 애플의 AI ‘시리(Siri)’ 개발자다.

톰 그루버 박사는 “우리는 인간중심의 AI가 기계가 아닌 사람들에게 우선적으로 혜택을 주도록 설계된 것임을 알고 있다”며 “기본적으로 자동화를 기반으로 하지만 인간 중심 AI의 목표는 인간과 협력하거나 인간의 능력을 강화함으로써 이익을 제공하는 것”이라고 말했다.

그러면서 톰 그루버 박사는 인간 중심의 AI 사회가 되기 위해선 AI에 대한 ‘윤리적 토대’가 뒷받침돼야 할 것이라고 봤다. 인간중심의 AI가 반드시 착한 AI, 우리를 행복하게 하는 AI, 나아가 좋은 일을 하는 AI와 같다고 볼 수 없다는 것이다. 

예를 들어 빅데이터와 AI가 현재 적용되는 소셜 미디어와 인터넷 환경에서는 그로스해킹(제품이나 서비스의 핵심 지표를 AI가 분석하고 사용자의 흐름을 따라 시장을 확장시키는 마케팅 기법) 등을 통해 사람들을 소셜 미디어에 지속적으로 중독되도록 하고 있다. 이는 AI가 한 가지 목표, ‘많은 미디어 광고를 접하도록’ 설계됐기 때문이다.

애플의 AI ‘시리(Siri)’ 개발자 톰 그루버 박사는 앞으로 AI는 인간중심의 AI가 돼야할 것이라고 봤다. 이를 위해선 윤리적 토대가 필요하다고 강조했다./ 사진=온라인 웨비나 캡처

특히 톰 그루버 박사는 이를 위해선 어떤 것이 인간에게 이익을 주고, 무엇이 해로운지를 명확하게 AI제작자 ‘자신’이 아는 것이 중요하다고 강조했다. 우리가 내리는 선택이 AI가 좋은 결과를 가져올지 아닐지에 대한 판단의 기초이기 때문이다.

톰 그루버 박사는 “인간 중심의 AI를 제작하기 위해선 우리는 어떤 방향으로 나아가야 하는지, 우리가 올바른 길을 가고 있는지, 갈림길에 섰을 때 올바른 길을 선택하기 위한 방법이 필요하다”며 “이로써 우리가 윤리적 선택을 하는 것이 일이 잘못되는 것을 방지할 수 있다는 결론에 이른다. 그래서 윤리적 결정을 피하는 것이 비윤리적인 결정을 내리는 것과 같다고 말하고 싶다”고 말했다.

이어 “우리는 AI에 대한 가이드라인인 사회적 이익, 안전, 편견의 자유, 설명 가능성, 투명성, 프라이버시 등을 이야기 해왔다”며 “이런 원칙들은 윤리적인 틀을 만들고 이것을 적용하기 위해 매우 중요하고, 이런 윤리 원칙들은 우리가 사회구성원으로 지키며 우리의 AI에 구현하고 싶은 가치들을 표현한다”고 덧붙였다.

그러면서 톰 그루버 박사는 “인간적인 가치는 거의 대부분의 사람이 공감하고 있고 그 원칙들 자체도 AI 추구가치에도 포함돼 있다”며 “그래서 인간의 가치와 AI와의 가치를 정률시켜 나가면서 학생들에게 가르치면 좋겠다”고 AI윤리 교육의 중요성도 강조했다.

오혜연 교수는 카이스트(KAIST) 전산학 교수(사진)는 ‘AI의 편향성’을 줄이는 것이 향후 윤리적 토대가 뒷받침되는 AI를 개발하기 위한 가장 중요한 요건 중 하나라고 설명했다./ 사진=온라인 웨비나 캡처

◇ AI 윤리적 토대 확보 위해선 ‘편향성’ 줄여야

그렇다면 앞서 톰 그루버 박사가 강조한 것처럼 윤리적 토대가 뒷받침된 인간 중심의 AI를 개발하기 위해 필요한 것은 무엇일까. 톰 그루버 박사에 이어 발표를 진행한 오혜연 교수는 카이스트(KAIST) 전산학 교수는 ‘AI의 편향성’을 줄이는 것이 가장 중요한 요건이라고 분석했다.

오혜연 교수는 “사람들이 실제 말할 때보다 AI머신러닝 모델들이 편향성이 훨씬 크기 때문에 교정이 필요하다”며 “사람의 경우엔 때와 장소를 가려 말할 수 있는 판단력이 있으나, AI는 인터넷 등에서 학습한 차별, 혐오표현 등을 학습해 편향성을 드러내기 쉽다”고 지적했다.

실제로 AI가 학습하는 데이터의 경우 나라마다, 문화권마다, 연령대마다 심지어 성별마다도 전부 다르게 해석하는 편향성을 가지고 있다. 예를 들어 우리나라에서 웃어른에게 존댓말을 하지 않는 것은 상당히 무례한 행동이지만, 미국이나 영국 등 영어권 국가에서는 존댓말이라는 개념이 존재하지 않기 때문에 ‘Sir’이나 ‘Ma'am’, ‘Madam’ 등의 호칭 정도만 붙이면 된다. 때문에 한국의 AI는 영어권 사람들을 보고 ‘무례하다’라고 판단할 수도 있는 것이다.

사람의 경우엔 때와 장소를 가려 말할 수 있는 판단력이 있으나, AI는 인터넷 등에서 학습한 차별, 혐오표현 등을 학습해 편향성을 드러내기 쉽다. 사진은 지난 1월 혐오표현 등으로 논란이 됐던 인공지능 '이루다'./ 사진=온라인 커뮤니티 캡처, 편집=박설민 기자

하지만 AI의 편향성을 완전히 없앤다는 것은 사실상 불가능한 일이다. AI제작자인 사람조차도 편향성을 갖지 않고 살아가는 것이 힘들기 때문이다. 이에 오혜연 교수는 AI의 편향성을 완전히 없애는 것은 불가능하지만 이를 줄일 수 있는 △멀티링궐 모델 △얼라인먼트 모델의 두 가지 AI모델을 제시했다.

먼저 멀티링궐, 즉 다중언어 모델은 100여개 국가의 언어를 동시에 학습한 모델을 말한다. 예를 들어 ‘책상’이라는 단어를 AI가 학습할 때 한글 단어뿐만 아니라 영어의 ‘Desk’, 중국어의 ‘桌子’, 독일어의 ‘Schreibtisch’ 등 여러 가지 단어로 모두 학습하는 것이다. 이렇게 되면 각 문화권의 편향성을 조금이나마 줄일 수 있게 된다.

두 번째 얼라인먼트 모델은 각 문화권에 해당하는 언어를 교차시켜서 학습시키는 AI모델이라고 할 수 있겠다. 예를 들어 한국어에 대한 언어 모델에 영어 데이터로 ‘얼라인(align: 배치)’ 시켜 영어의 편향성을 가지게 된 한국어 모델을 만드는 것. 이렇게 될 경우, 한국어보다 좀 더 방대한 데이터를 가진 영어 모델을 통해 한국어 AI 모델의 편향성을 줄일 수 있게 된다.

전문가들은 AI의 윤리적 토대를 마련하기 위해선 구체적인 규칙과 부문별 법안 및 권고사항 등이 필요할 것으로 보고 있다./ 그래픽=박설민 기자

◇ AI의 기술적 차별 막기 위한 법안도 필요

아울러 서울대학교 법학전문대학원 박상철 교수는 사회적 차별에 반대하고 다양한 의견을 포용하는 AI를 마련하기 위해선 △법이 제시하는 최소한의 목표 확인 및 더 높은 구체적 목표 설정 △보호대상 속성 및 민감 속성의 정의 △차별 금지의 구체적 지표 설정 △알고리즘 개입의 순서로 목표를 진행해야한다고 설명했다.

특히 박상철 교수는 단순히 AI의 학습데이터에서 인종, 종교, 성별 등의 부문에서 차별적 의도나 편견이 없애는 것으로는 부족하다고 지적했다. 예를 들어 면접 서류에서 성별 및 학벌을 제외한다 하더라도 자기소개서의 말투, 취미, 전공, 사용언어 등의 ‘대응 변수’들 때문에 AI가 편향적 판단을 할 가능성이 있기 때문이다.

박상철 교수(사진)는 단순히 AI의 학습데이터에서 인종, 종교, 성별 등의 부문에서 차별적 의도나 편견이 없애는 것으로는 부족하다고 지적했다. 각종 차별 가능성이 있는 단어 및 정보를 배제한다 하더라도 ‘대응 변수’들 때문에 AI가 편향적 판단을 할 가능성이 있기 때문이다./ 사진=온라인 웨비나 캡처

박상철 교수는 “형식적으로 중립적으로 대우하더라도 결과적으로 보호대상 집단을 불균형하게 배제하거나 불이익을 주면 차별이라고 봐야한다”며 “출력 중심의 접근, 보호대상 그룹 자질에 대한 진정성 있는 신뢰, 이를 기반으로 한 AI알고리즘적 개입이 맞물려 들어갈 때 차별 금지가 효과 있을 것”이라고 말했다.

다만 박상철 교수는 AI 윤리 원칙을 국가가 아닌 각각의 기업들이 정하고 있는 것이 맞느냐는 질문에 대해선 현재 AI 윤리 원칙과 ‘법’간의 차이가 있을 수 있다고 설명했다. 

박상철 교수는 “법의 경우 공권력 등을 활용해 최소한의 선을 강제로 지키라고 정해진 것으로 AI에 관련된 윤리 원칙 등은 법이 닿지 않는 부분에서 각자 노력할 수 있는 부문”이라며 “때문에 천편일률적으로 규제를 하는 것은 컨셉과 맞지 않는 상황”이라고 말했다.

이어 “AI규제에 대해 많은 사람들이 우려를 표하는 이유가 바로 이것인데, AI라는건 기업마다, 상황마다 처한 상황이 다른데 우리나라의 경우, 각 부문별로 접근하려고 하는 것이 아닌, 여러 가지 내용을 포함해 접근하려고 한다”며 “AI라는 것은 기업마다 처한 현실이 다르기 때문에 각자의 권고를 만드는 것이 가능하다”고 덧붙였다.
 

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다