인공지능(AI)의 빠른 발전으로 AI의 막강한 힘에 대한 우려도 커지면서 AI윤리 원칙 확보에 대한 중요성도 점차 커지고 있다. 이에 <시사위크>에서는 한국인공지능윤리협회 전창배 이사장을 만나 AI윤리 확충을 위한 방안에 대해 이야기를 들었다./ 사진·그래픽=박설민 기자

시사위크=박설민 기자  46억년에 이르는 지구 영겁의 역사 중 단 1만년이라는 찰나의 순간 동안 인류는 엄청나게 빠른 발전을 일궈왔다. 특히 석기시대부터 증기 터빈 기반의 산업화에 이른 현대시대까지의 발전에 이어 다가올 ‘대(大) 인공지능(AI)’ 시대는 미래 인류 문명 전체를 바꿔버릴 수 있는 힘이 예상된다.

하지만 영화 ‘스파이더맨’의 ‘큰 힘에는 책임이 따른다’는 유명한 대사처럼 AI의 막강한 힘에는 분명 큰 책임이 따를 수밖에 없을 것이다. 책임지지 않는 AI가 가지는 위험성은 미래 산업과 인간 사회에서 그 어떤 정보통신(IT)기술보다 치명적으로 작용할 수 있기 때문이다.

그렇다면 다가오는 4차 산업혁명의 핵심기술이자 미래 인류 사회를 바꿀 수 있는 ‘키체인저’가 될 것으로 예상되는 AI가 올바른 방향으로 발전하기 위해 추구해야 할 가치는 무엇일까. 이 같은 질문의 해답을 얻기 위해 <시사위크>에서는 한국 AI 윤리 분야 확충을 위해 쉬지 않고 달려오고 있는 한국인공지능윤리협회(KAIEA) 전창배 이사장을 만났다.

전창배 한국인공지능윤리협회 이사장. 전창배 이사장은 IT기업에서의 근무 경험과 윤리학 전공이라는 이점을 살려 4차 산업혁명의 핵심 기술인 AI의 윤리 부문에 대한 일을 하고자 협회를 설립하게 됐다고 밝혔다./ 사진=박설민 기자

가을의 문턱을 넘었음에도 아직 늦여름의 더위가 가시지 않았던 24일, 기자는 전창배 한국인공지능윤리협회 이사장을 만나기 위해 서울 여의도역 시티플라자 빌딩을 방문했다. 반갑게 기자를 맞이한 전창배 이사장은 AI 윤리 확보를 위해 일하게 된 배경을 묻는 질문에 “결코 쉽지 않은 일이었다”고 입을 열었다.

- 한국인공지능윤리협회가 어떤 일을 하는 단체인지 간단하게 설명해 달라.
한국인공지능윤리협회는 AI가 전 세계에서 안전하고 윤리적으로 이용될 수 있는 환경을 만들기 위해 노력하는 비영리 단체다. 현재 정부 기관 전문가, 대학교 연구기관, 시민단체 등과 함께 AI가 미래 각 산업 분야에서 인류의 행복과 발전에 기여할 수 있도록 지원하는 것을 목표로 활동하고 있다.

협회에서 하는 일과 목표를 세부적으로 설명하자면 이렇다. 각 산업 분야에 인공지능 윤리 알고리즘 연구 개발 및 적용을 지원하고, AI윤리를 기반으로 한 정책 개발 및 법률적 제도화를 하는 것을 돕는다. 나아가 AI윤리 및 안전이 적용된 제품 및 서비스 인증 사업을 추진중이다. AI윤리 보급화를 위한 초·중·고, 대학, 대학원 교과과정 개설 및 교육 시행을 비롯해, 일반인들을 위한 AI윤리 관련 서적 출판, 세미나, 컨퍼런스 등을 개최하고 있다. 최종적으로는 AI윤리 및 안전 전문가 양성과 전문가그룹 활동을 지원하는 것이 목표다.”

- ‘AI윤리’ 개념 재정이라는 일은 결코 쉽지 않은 것 같다. 이렇게 어려운 일에 뛰어들게 된 계기는 무엇인가.
사실 처음부터 AI윤리와 관련된 협회를 창립하거나 이런 일을 하겠다고 오랜 계획을 세워왔던 것은 아니었다. 원래 인터파크, SK텔레콤 자회사 등 IT기업에서 일을 해왔었다. 그러다 내가 하고 싶은 일을 해봐야겠다는 생각을 하게 돼 블록체인 기업 등을 운영하던 중, 3년 전부터 4차 산업혁명과 함께 떠오르기 시작한 AI 관련 이슈를 접하게 됐다.

흥미가 생겨 조사를 하고 나니 AI윤리는 예상보다 훨씬 중요한 문제라고 생각됐다. 특히 전 세계적으로 AI윤리 분야는 아직 제대로 발전되지 않은 상태였으며, 우리나라는 당시 연구가 전무하다는 것을 알게 됐다.

이에 원래 대학교 학사 시절 전공이 윤리학(윤리교육과) 부문이었던 것과 IT기업에서 근무했던 지식 및 경험을 바탕으로 AI를 합친 AI윤리를 위해 일을 해보자고 목표를 세우게 됐고, IT분야 및 법률, 윤리학 부문에서 마음이 맞는 분들과 뜻을 모아 한국인공지능윤리협회를 설립하게 됐다.”

- AI 윤리협회를 운영하면서 어려움과, 가장 인상 깊었던 일이 있다면. 
사실 한국인공지능윤리협회가 창립한 것은 지난 2019년 3월로, 시간으로만 따지면 2년6개월밖에 되지 않은 짧은 시간이었다. 그동안 협회는 굉장히 급박하게 왔는데, 그중 가장 기억에 남는 것은 2019년 10월에 ‘AI 윤리헌장’을 협회 위원님들과 머리를 맞대고 만든 것이다. 참 재미있는 것은, 어떻게 타이밍이 잘 맞아 그해 12월쯤 방송통신위원회에서 이용자 중심의 AI 가이드라인이 발표됐다. 어찌 보면 정부 기관보다 한 달쯤 빠르게 우리의 AI 윤리헌장이 발표된 것이기에 우리나라의 AI윤리 부문을 선구하고 있다는 자부심도 들었다.

그때부터 협회가 IT분야에서 조금씩 알려지면서 연락이 오기 시작했고, 해외에서도 우리 협회에 관심을 갖기 시작했다. 캐나다 국책 연구기관인 ‘캐나다 아시아 태평양 재단(APF Canada)’ 한국 파트 담당부서에서 연락이 왔고, 지난해 10월 한국과 캐나다 양국 간 AI윤리 및 거버넌스 확보와 관련한 업무협약을 맺었다. 한국을 넘어 글로벌 AI윤리 분야에서 목소리를 내는 것이 우리 협회의 최종 목표인 만큼 매우 뜻깊은 일이었다.”

지난 9월 1일부터 3일까지 부산 벡스코 전시장에서 열린 ‘제2회 인공지능 윤리대전’에서 발표를 진행하고 있는 전창배 이사장./ 사진=제2회 인공지능 윤리대전 온라인 중계

- 앞서 AI윤리의 중요성이 날이 갈수록 커지고 있다고 언급했다. AI윤리가 앞으로 중요해질 수밖에 없는 배경과 이유는 무엇이라고 생각하는가.
물론 현재의 AI가 영화 ‘터미네이터’나 ‘매트릭스’에 등장하는 AI처럼 사람을 직접적으로 해칠 수 있는 수준은 결코 아니라고 생각한다. 미래학자 레이 커즈는 2050년에 AI가 세상의 중심이 되는 특이점이 올 것이라고 예상은 했지만 아직 그것은 요원한 상태다. 하지만 우리 후손들, 다음 세대의 경우 제대로 된 윤리의식이 바탕이 되지 않은 채로 AI가 발전한다면 이는 위험할 수 있다고 생각한다.

예를 들어 AI 기반의 자율주행 자동차가 운행 도중 사고를 냈을 경우 누가 책임을 물어야 하는지, 이에 대한 피해 보상 등은 현재 명확하지 않은 상태다. 또한 미래 AI 기반의 ‘킬러로봇’ ‘킬러드론’ 등이 만들어질 경우, 이를 어디까지 규제하고 제한할 수 있는지도 명확하지 않다. 따라서 이런 AI로 인해 발생할 수 있는 도덕적 문제와 범죄를 예방하기 위해 AI윤리의 확보는 지금부터 분명히 필요하다고 생각한다.”

- 현재 메타버스 등 AI가 적용될 수 있는 새로운 IT기술 분야가 떠오르고 있다. 이때 발생할 수 있는 문제점과 이를 대비하기 위해 필요한 AI윤리 방향은 어떤 것이 있는가.
“메타버스 내에서 일어나는 범죄행위 중 개인정보유출이나 성희롱·모욕죄 등 현실세계와 가상세계 모두 적용 가능한 범죄에 대해서는 처벌이 가능할 것으로 보인다. 하지만 그 외의 가상현실세계 내에서의 비도덕적, 비윤리적 행위에 대해 처음부터 모두 법적 잣대를 가져가기에는 논란의 여지가 있다. 따라서 이러한 비도덕적, 비윤리적 행위에 대해서는 관리자와 사용자 스스로 ‘메타버스 윤리 가이드라인’을 만들고 자율적으로 준수하려는 노력을 통해 건전한 가상현실 환경을 구현하고 운영해 나가는 것이 바람직하다고 생각한다. ‘메타버스 윤리 가이드라인’은 법보다 훨씬 포괄적이고 광범위하게 제정할 수 있으며, 위반 시 법적 강제력은 없으나 메타버스 세계 내에서 벌점이나 강제퇴장, 사용정지 등의 불이익을 부여함으로써 사용자들 스스로 경각심을 갖고 자발적으로 준수하도록 하는 안전장치가 될 수 있다고 기대한다.”

- 우리나라가 앞으로 AI 강국으로 나아가기 위해 필요한 AI윤리 및 법안의 발전 방향을 어떻게 전망하는지 궁금하다.
앞으로 AI윤리 부문과 관련된 법 제정, 정책 등의 마련은 필수적이라고 생각한다. 하지만 그렇다고 해서 AI윤리가 현재 AI 산업을 이끌고 있는 기업들의 발목을 잡는 장애물이 돼서는 결코 안 된다. 따라서 전반적으로는 강제성이 있는 법안보다는 기업들 스스로가 지킬 수 있는 AI윤리 원칙의 마련이 필요하다고 본다. 이것이 한국인공지능윤리협회에서 AI윤리 가이드라인을 제정한 이유다. 도덕의 최소한이 ‘법’인 만큼 윤리 가이드라인을 제정해 기업들에게 권고한다면 기업과 연구자들의 발전을 저해하지 않으면서도 AI로 인해 발생할 수 있는 사회적·도덕적 피해를 줄일 수 있을 것이라고 생각하기 때문이다. 물론 치명적인 위험을 가할 수 있는 살상용 AI나 딥페이크를 통한 디지털성범죄 등에 대해서는 강제로 규제하는 법안의 마련 등은 반드시 필요할 것이다.”

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다