김형준 한국지능정보사회진흥원 지능화법제도센터장 外

국가 ICT분야 법체계 정비 지원을 담당하고 있는  ‘한국지능정보사회진흥원(NIA)’ 의 김형준 정책본부 지능화법제도센터장./ 박설민 기자
국가 ICT분야 법체계 정비 지원을 담당하고 있는 ‘한국지능정보사회진흥원(NIA)’ 의 김형준 정책본부 지능화법제도센터장./ 박설민 기자

시사위크=박설민 기자  최근 4차 산업시대에 맞춰, 여러 국가에서 새로운 정보통신기술(IT) 관련 법안이 쏟아져 나오고 있다. 특히 본격적인 ‘인공지능(AI)’ 시대가 시작되면서, 한국 산업 현장과 문화적 특성을 담은 ‘AI규제’ 마련의 필요성이 강조되는 추세다. AI산업 발전 저하를 막지 않는 선에서 도덕적, 윤리적 문제를 담을 수 있는 법안이 필요해서다.

하지만 ‘법제(法制)’는 국가적 강제성으로 실현되는 사회규범이다. 국가의 질서 역할 뿐만 아니라, 사람들 간의 협력 관계 강화·유지 기능도 담당한다. 따라서 법 제정은 효력과 조직적 강제성이 뒷받침돼야 하지만, 동시에 각 국가별 문화, 사회적 도덕관념, 시대적 변화도 고려해야 한다. 즉, 새로운 법제가 필요하다고 해서 그 자리에서 뚝딱 만들어지는 게 아니라는 이야기다. 

그렇다면 우리나라에서 준비되고 있는 AI관련법은 앞으로 어떤 모습을 띠게 될까. 이 질문의 답을 듣고자 <시사위크>에서는 김형준 ‘한국지능정보사회진흥원(NIA)’ 정책본부 지능화법제도센터장을 비롯, 지능정보화 법체계정비 지원 및 법제도 연구를 진행 중인 NIA 지능화법제도센터 팀원들을 만나 이야기를 들어봤다.

-NIA 지능화법제도센터에 대한 간단한 소개 부탁드린다.

김형준 센터장 “NIA는 1987년 설립된 과학기술정보통신부 산하 기관으로, 국가정보화 정책 개발과 정보격차 해소 등을 지원하고자 설립됐다. 이때 국가 ICT분야 법체계 정비 지원을 담당하고 있는 곳은 NIA 정책본부다. 대내외 ICT 환경변화에 따른 거시적·주도적인 정책 아젠다를 발굴하고, 중장기 미래전망 연구를 통해 지능정보사회의 장기적 국가 미래전략 및 정책 수립을 지원하고 있다. 이 가운데 4차 산업혁명시대를 맞아, AI 관련 법제도의 중요성이 강조되고 있다. 신종 코로나바이러스 감염증(코로나19) 팬데믹 이후, 비대면 사회가 시작되면서다. 동시에 2016년 ‘알파고(AlphaGo)’ 사태 이후, 4차 산업혁명시대도 본격적으로 개막됐다. 이에 따라 자연스럽게 AI에 관한 법률들도 함께 연구·검토해야 할 필요성이 제기됐다. 이에 2019년 NIA 정책본부에서는 지능화법제도센터를 새롭게 설립했다. 이곳에서는 지능정보화 법제도 정비 지원지능정보사회 구현 및 미래사회 패러다임 변화 대응을 위한 법제도 연구를 중점 추진하고 있다.”

-‘인공지능 법·규제·제도 정비 로드맵’ 구축 담당 기관을 맡게 된 배경은.

김형준 센터장 “2019년도에 정부는 과학기술정보통신부를 비롯한 전 부처가 참여해 마련한 ‘AI 국가전략’을 발표했다. 이 전략은 전국 단위 AI 거점화 등 세계를 선도하는 AI 생태계 조성을 목표로 했다. 이와 함께 정부 기관들 사이에선 안전하고 부작용 없는 AI산업 육성을 위한 관련 법률 중요성도 제기됐고, AI 및 ICT 관련 정책 및 법체계 연구를 활발히 진행하는 기관을 선정해 관련 로드맵을 작성하도록 지시했다. 이때 선정된 곳이 바로 NIA였다. 실질적으로 법제도·정책·사업 추진 등을 종합적으로 하는 기관은 NIA뿐이기 때문이다.”

최인선 수석연구원 “타 관련 기관들도 있지만, AI를 포함한 ICT 관련 법체계 연구 관련해서는 NIA가 독보적 기관이라고 말할 수 있다. IT분야 개인정보를 포함한 정부의 법제도·정책 업무는 NIA에서 핵심적으로 추진 중이다. 국가정보화기본법을 기본으로 하는 ICT법체계 연구가 적립된 기관이기 때문이다. 따라서 그 법을 관장하는 NIA가 AI 관련 법 로드맵 추진을 당연하게 추진하게 된 것이라고 볼 수 있다.”

김형준 센터장은 우리나라에 맞는 AI법안을 마련하기 위해선 기술, 문화를 모두 고려한 맞춤형 규제안이 필요하다고 봤다./ 박설민 기자
김형준 센터장은 우리나라에 맞는 AI법안을 마련하기 위해선 기술, 문화를 모두 고려한 맞춤형 규제안이 필요하다고 봤다./ 박설민 기자

-로드맵 내용에 대해 간단히 설명해주신다면.

김형준 센터장 “NIA는 연구 용역 기관인 한국규제학회(KOSRES) 및 정부 관계부처들과 함께 AI관련 법과 제도가 앞으로 어떻게 변화해야 하는지 1년 간 연구를 수행했다. 글로벌 동향을 고려해, AI산업 진흥과 활용 기반을 강화하고 역기능을 방지를 목표로 하는 로드맵을 만들고자 했다. 그 결과, 30개의 법·제도·규제 정비안을 도출할 수 있었다. 그 과제를 11개 분야로 나눠서 정리한 다음, 각 부처가 개별적으로 추진할 수 있도록 로드맵을 작성했다. 11개 분야는 AI 공통 기반’ 부문에서 △데이터경제 활성화 기반 조성 △알고리즘의 투명성·공정성 확보 △AI 법인격 및 책임체계 정립 △AI 윤리 정립 4가지 분야와, ‘AI 활용 확산’ 부문의 △의료 △금융 △행정 △고용·노동 △포용·복지 △교통 6개 분야로 나뉜다. 현재 로드맵에선 2개 정도의 과제를 제와하고는 대부분 완료된 상태다.

-전문가들과 ‘AI 법제 정비단’도 운영 중인 것으로 알고 있다.

김형준 센터장 “NIA는 2021년부터  AI 법제 정비단을 운영 중이다. 현행 규제와 AI산업 사이의 간극을 극복하는 합리적인 규율방안에 대한 연구를 진행하기 위함이다. 1기의 경우, 앞서 소개한 AI 법·규제·제도 정비 로드맵 구축에 중점을 뒀다. 이후 2,3기는 거기서 나온 이제 과제들을 골라, 앞으로 어떻게 우리 사회에 적용할 것인지 연구하는 역할을 맡았다. 현재 30개 과제 중 2개를 제외하고는 충분한 연구가 진행된 상태다. 이달 16일 발족한 정비단 4기에서는 좀 더 큰 변화가 있을 예정이다. ‘초거대 AI’의 등장으로 AI를 활용하는 환경 자체도 바뀌었고, 기업들도 굉장히 많이 변화하고 있어서다. 이에 따라 4개 분과위원회가 구성됐고, 법제정비단도 총 41명으로 확대 구성됐다. 아울러 AI 법·규제·제도 정비 로드맵 2.0도 준비 중이다.”

-법을 연구하다보면 여러 논란거리도 많이 보셨을 것 같은데.

김형준 센터장 “물론이다. 특히 AI범죄 관련 논란은 아직까지 이어지고 있다. 예를 들면 ‘AI에 의해서 범죄가 발생했을 때, 이를 어떻게 처리할 것인가’와 같은 문제다. 형사정책에 관련해 AI를 과연 처벌할 수 있는가 여부를 판단하기 어렵다. 사실 지금까지 AI가 활용된 범죄는 있었지만, 이는 사람들이 사용한 범죄였다. 때문에 AI를 처벌하거나 제재하는 방안에 대해서는 좀 더 사회가 변화되고 하는 것을 좀 기다려 봐야한다는 의견들도 많이 제시됐다.”

최인선 수석연구원 “생성형 AI가 만든 콘텐츠와 관련한 저작권 문제도 있다. 아직 AI의 창작물은 저작권 자체를 인정하지 않고 있다. 하지만 이에 대한 의견이 분분한 상태다. 예를 들어 여러 명이 같이 만든 음악이나 미술 작품이 있을 경우, 각자 얼 만큼의 지분을 투자했는지를 따져 ‘나의 권리’를 챙길 수 있다. 반면 AI의 경우, 이런 권리 관계를 따지기가 어렵다. 때문에 그 권리 관계를 명확히 하는 방법론에 대한 다양한 주장들이 끊임없이 나온다. 생성형 AI와 관련해서는 AI한테 저작권을 과연 줘야 될 건지 말지, 또 저작권을 줄 경우 AI제작 회사와 창작자 간 권리 관계는 어떻게 따져야 할지에 대한 이슈가 있다.”

채은선 수석연구원 “근데 지금 현재 가장 문제는 사람이 AI에 무임승차를 할 경우다. ‘누가 권리자인가’를 찾을 때, 과연 명령어만 간단히 입력한 사람이 결과물의 주인이 될 수 있는가를 따지기 어렵다. 이를 제대로 규제하지 못한다면 AI가 만든 것을 사람이 한 것인 척 속이는 문제가 발생할 수도 있다. 이제 저작권법 양상은 AI 콘텐츠 저작권을 인정하느냐, 또 그로 인한 실익은 무엇이냐 등을 다같이 다뤄야할 시점인 것 같다.”

-미국·유럽의 AI규제안에 대해선 어떻게 생각하시는가.

김형준 센터장 “많은 분들은 유럽은 규제 중심, 미국은 자유주의적이라고 말한다. 그런데 두 국가를 살펴보면 서로 다른 방향이긴 하지만 굉장히 상세하게 설정해놓았다. 특히 미국의 경우, 2년 단위로 AI알고리즘 책엄 법안들을 제출·보완해, 사회적 영향 평가를 진행할 수 있도록 만들었다. 방식은 조금씩 다를지 몰라도 이들이 추진하는 목표는 결국 똑같다. 안전하고 사회적으로 이용성을 높일 수 있는 AI생태계 구축이다. 따라서 우리나라 역시 같은 결을 가질 수 있는 법안을 만드는게 중요하다 생각한다. 물론 미국과 유럽의 규제안을 그대로 따라하는 것은 맞지 않다. 우리나라도 미국과 유럽의 입법 과정 등을 참조해 굉장히 노력해야 한다고 생각한다.”

NIA 지능화법제도센터 팀원들의 모습./ 박설민 기자
NIA 지능화법제도센터 팀원들의 모습./ 박설민 기자

-인공지능 규제 관련 법제화가 국내 AI기술 발전을 막을 수 있다는 우려도 있다. 

김형준 센터장 “AI규제의 강도는 법체계 연구자 입장에선 항상 고민되는 부분이다. 예를 들어 자율주행차에 들어가는 AI는 ‘고위험 AI’ 분류될 수 있다. 하지만 로봇청소기에 쓰는 AI는 이 모델과 굉장히 비슷한 기술이다. 실제로 세계적인 로봇청소기 회사들의 주요 사업 중 하나가 자율주행차용 AI개발이다. 또한 공공기관에서 사용되는 AI시스템은 고위험 AI로 분류된다. 국가 정보 및 개인정보 유출의 위험성 때문이다. 하지만 동일한 시스템이 민간 기업에서 사용될 경우엔 고위험 AI로 분류되지 않는다. 즉, 현재의 AI규제안은 귀에 걸면 귀걸이, 코에 걸면 코걸이인 경우가 많다. 따라서 이런 상황에 맞춘 ‘맞춤형 규제안’의 마련이 필요할 것이라고 생각한다.”

최미지 선임연구원 “사실 지금 우리나라 AI산업 같은 경우에는 미국, 영국 등 국가들에 비해서 이제 그 국가들의 기술 발전 속도를 부지런히 따라가야 하는 후발주자의 입장이다. 그러다 보니 정부 부처의 입장에서는 그 산업의 촉진 측면을 조금 더 중시하고 있는 경향이 당연히 있을 수밖에 없다. 그런데 또 AI활용에 대한 위험성 얘기가 이제 조금씩 대두되고 있는 상황에서 이를 고려를 하지 않을 수도 없는 상황이 됐다. 이제는 그 두 개 중에 어느 하나가 우선이다 라고도 할 수 없다. 두 개 다를 모두 고려해서 규율과 규제를 해나가야 되는 입장이다. 따라서 우리나라의 AI규제안은 그런 것들을 모두 수렴하고 반영·보완이 돼야 될 것이라 생각한다.”

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다