미국, 유럽을 중심으로 글로벌 인공지능(AI) 산업 규제가 강화되고 있다. 이에 따라 법률 전문가들과 AI개발자들 간의 충분한 논의를 기반으로 국내 산업계에 맞춘 AI규제를 마련해야한다는 목소리도 커진다./ 그래픽=박설민 기자
미국, 유럽을 중심으로 글로벌 인공지능(AI) 산업 규제가 강화되고 있다. 이에 따라 법률 전문가들과 AI개발자들 간의 충분한 논의를 기반으로 국내 산업계에 맞춘 AI규제를 마련해야한다는 목소리도 커진다./ 그래픽=박설민 기자

시사위크=박설민 기자  미국·유럽을 중심으로 글로벌 인공지능(AI) 산업 규제가 강화되고 있다. 딥페이크를 이용한 가짜 뉴스·음란물 생성, 생성형 AI 콘텐츠들의 저작권 위반 문제들에 대처하기 위함이다. 다만 AI산업이 활성화되고 있는 지금, 지나친 규제는 기술 개발과 산업 발전을 저해할 수 있다는 우려도 나온다. 이에 따라 법률 전문가들과 AI개발자들 간의 충분한 논의를 기반으로 AI규제를 마련해야 한다는 목소리도 커진다.

◇ 국가 단위로 규제 나서는 유럽… 세계 최초 AI규제법안 통과

먼저 AI규제에 대해 가장 적극적으로 나서고 있는 곳은 ‘유럽’이다. 유럽은 ‘공동체주의’ 형식의 AI규제가 필요하다는 입장을 보이고 있다. AI기술과 관련한 사회 보장 및 인권 등 문제를 국가적으로 보장해야 한다는 의미다. 쉽게 말해 AI윤리 가이드라인을 설정한 후 이를 지키지 않을 시 처벌 및 손해배상 청구를 진행하는 규제에 찬성한다는 의견이 강하다.

실제로 유럽연합(EU)은 지난 3일 전 세계 최초로 ‘인공지능 규제법’을 통과시키기도 했다. 법안은 EU 27개 회원국 만장일치 합의를 거쳤다. 유럽 내 국가들의 AI규제와 관련해 공동체주의 성격이 강하다는 것을 엿볼 수 있는 대목이다. 유럽의회(EP)는 입법화를 위해 13일 담당위원회 표결을 진행한다. 이후 3~4월 본회의에 해당 법안 안건을 상정한다. 안건이 최종 통과되면 일부 조항은 올해 여름부터, 본격적 시행은 2026년 이뤄질 예정이다.

이번에 통과된 AI규제법에 EU는 AI를 △허용할 수 없는 위험 △고위험 △제한된 위험 △저위험 또는 최소 위험 등 4 단계의 위험도로 분류한다. 이중 ‘저위험 또는 최소 위험’을 제외한 나머지 3단계에 대해 단계별 규제를 부과한다. 규제 내용은 ‘AI시스템 배포자에 대한 의무 강화’, ‘중소기업과의 불공정 계약 규제’, ‘기본권 영향평가 수행 의무’ 등이다.

AI업계에 특히 주목도가 높은 부문은 ‘고위험 AI’ 단계다. 금융, 헬스케어 등 일상생활과 밀접한 분야 서비스 부문과 관계가 밀접해서다. 유럽연합조정법(the Union Harmonisation Law)에서 고시하는 고위험 AI의 정의는 ‘제품의 출시 또는 시판을 위해 보건 및 안전에 관한 제3자 적합성 평가를 받아야 하는 제품에 사용되는 AI시스템’이다. 쉽게 말해 사람의 건강, 안전, 기본권에 중대한 위해를 끼칠 위험이 있는 AI를 뜻한다. 앞으로 유럽에서 AI기술을 수출·판매하는 기업은 고위험 AI와 저위험 또는 제한된 위험 AI모델을 명확히 정의해 보고해야 한다.

최근 AI산업계를 이끄는 ‘생성형 AI’에 대한 규제도 추가됐다. 특히 ‘사람 얼굴’ 등 생체 정보를 AI로 수집할 수 없게 됐다. 정치, 종교, 성차별, 인종차별 및 개인정보침해 등 문제를 방지하기 위함이다. 단, 군사 및 범죄수사, 보안 목적으로 사용할 경우에 대한 예외조항은 포함됐다.

저작권 관련 문제에 대한 조항도 강화됐다. 오픈AI의 ‘GPT’, 구글의 ‘제미나이’ 등 초거대 AI기반 대규모언어모델(LLM)과 관련해선 저작권법 준수, 데이터 학습에 사용된 내용 요약본 배포 등 AI학습과 관련한 투명성 의무도 부과됐다.  또한 AI가 만들어낸 이미지에는 이를 표시하는 워터마크 표기가 의무화된다. EU는 이번 법안을 어길 시 해당 기업에 3,500만유로(한화 약 500억원) 또는 전체 매출의 최대 7%에 이르는 과징금을 부과한다는 방침이다.

 유럽연합(EU)은 지난 3일 전 세계 최초로 ‘인공지능 규제법’을 통과시키기도 했다. 법안은 EU 27개 회원국 만장일치 합의를 거쳤다./ 그래픽=박설민 기자
유럽연합(EU)은 지난 3일 전 세계 최초로 ‘인공지능 규제법’을 통과시키기도 했다. 법안은 EU 27개 회원국 만장일치 합의를 거쳤다./ 그래픽=박설민 기자

◇ 기업 중심의 자율규제에 힘주는 미국… 정부 기관은 ‘지원사격’ 모양새

유럽과 함께 AI규제에 적극적으로 나서고 있는 국가는 ‘미국’이다. 단, 국가 단위로 AI를 강력히 규제하는 유럽과는 조금 다른 모양새다. 미국의 경우 기업을 중심으로 한 자율적 규제에 조금 더 초점을 맞추고 있다. 국가 단위의 강력한 규제는 떠오르는 AI산업 발전 저해를 가져올 수 있고 오히려 음지에서 관련 범죄가 늘어날 수 있다는 이유에서다.

먼저 칼을 빼든 미국의 IT기업은 페이스북의 모회사 ‘메타(Meta)’다. 메타는 지난 6일 향후 몇 달 내에 페이스북과 인스타그램, 스레드의 게시물에 AI가 만든 이미지를 사용할 경우 꼬리표를 붙일 것이라고 밝혔다. SNS플랫폼을 통해 퍼지는 가짜뉴스와 저작권 위반 AI이미지 문제 등을 사전에 차단하겠다는 목적이다.

메타는 현재 AI가 만든 이미지에 ‘이매진드 위드 AI(Imagined with AI, AI가 상상한 것)’이라는 꼬리표가 붙도록 하고 있다. 하지만 이는 자사의 생성형 AI툴인 ‘메타 AI’가 만든 이미지에 한정된 상태다. 이에 최근 급증하는 AI이미지 관련 문제와 논란을 해소하고자 외부 AI도구로 만든 이미지에도 이 꼬리표를 적용하도록 조치했다.

메타의 닉 클레그 글로벌 담당 사장은 “우리는 구글과 오픈AI, 마이크로소프트, 어도비, 미드저니 및 셔터스톡 등에서 제작한 AI이미지에 라벨을 붙일 수 있도록 조치한다”며 “이는 눈에 보이지 않는 마커, 특히 C2PA 및 IPTC 기술 표준의 ‘AI생성’ 정보를 대규모로 식별할 수 있도록 최고 수준의 시스템을 구축하고 있다”고 설명했다.

이미지 생성형 AI를 대표하는 ‘미드저니(Midjourney)’도 AI발 가짜뉴스에 대응하기 위한 규제를 자체적으로 강화한다. 10일 영국 가디언 등 외신 보도에 따르면 미드저니를 개발한 미국 샌프란시스코의 AI연구소 ‘미드저니’에서는 오는 11월까지 바이든 대통령과 트럼프 전 대통령에 대한 정치적 이미지를 생성하지 못하도록 제한한다. 얼마 남지 않은 미국 대선에 AI를 악용한 가짜뉴스를 막기 위함이다.

기업 중심의 자율규제 성격이 강하긴 하지만 미국 정부 차원에서의 AI규제 마련도 진행 중이다. 8일 스캇 위너 캘리포니아주 상원의원실은 ‘상원 법안 1047’ 입법을 진행했다. 초거대 AI시스템 개발자를 위한 안전표준 확립 법안이다. 해당 법안은 미국 상무부 산하 국립표준기술연구소(NIST)에서 AI모델 개발·평가를 전담하는 ‘미국AI안전연구소 컨소시엄(AISIC)의 도움을 받아 마련됐다.

법안은 안전한 오픈소스 AI의 배포와 이를 위한 기업들의 행동 강령 등의 내용을 담고 있다. 특히 AI모델 개발자 및 기업은 배포 전 안전 테스트와 사이버 보안 보호와 같은 기본적인 예방 조치를 취해야한다. 단, 해당 법안은 고위험 AI를 개발하는 대기업, 연구기관에 국한되며 상대적으로 위험하지 않은 AI를 개발하는 스타트업이나 고객에겐 의무가 부과되지 않는다. 

스캇 위너 상원의원은 “미래엔 무분별하게 개발된 AI가 공공 안전과 국가 안보에 심각한 위험을 초래할 수 있다”며 “상원 법안 1047은 이 같은 강력한 AI시스템이 시민에게 심각한 피해를 입히거나 개발자의 과실로 인해 공공 안전에 즉각적인 위협이 되는 경우 캘리포니아 법무장관은 개발자에게 책임을 물을 수 있도록 한다”고 전했다.

메타는 지난 6일 향후 몇 달 내에 페이스북과 인스타그램, 스레드의 게시물에 AI가 만든 이미지를 사용할 경우 꼬리표를 붙일 것이라고 밝혔다./ 메타
메타는 지난 6일 향후 몇 달 내에 페이스북과 인스타그램, 스레드의 게시물에 AI가 만든 이미지를 사용할 경우 꼬리표를 붙일 것이라고 밝혔다./ 메타

◇ 국내도 AI규제 필요성 대두… “딥페이크·저작권·개인정보 관련 법안 시급”

이 같은 세계적 흐름에 맞춰 국내에서도 AI관련 규제를 강화해야 한다는 목소리가 커지고 있다. 다만 전문가들은 미국과 유럽을 맹목적으로 따라가기보단 국내 산업·연구 현장 상황에 맞춘 AI규제 마련이 필요하다고 강조했다. 미국과 유럽이 자신들의 규제 기준에 맞춘 기술 개발 및 수출을 강요할 이에 대응할 방안이 필요하다는 것이다.

김수현 한국과학기술연구원(KIST) 인공지능연구단 책임연구원도 <시사위크>와의 통화에서 “최근 통과된 EU의 AI규제안에서 사람 얼굴 등 생체 이미지 학습에 제한을 둔다는 내용이 있는데 이 경우 관련 데이터 수집 기업들의 경우 적잖은 영향을 받을 것이라 본다”며 “연구기관의 경우 영향이 적겠지만 이 같은 글로벌 AI규제에 대한 산업계의 대응 방안은 필요할 것으로 생각한다”고 설명했다.

그렇다면 현재 국내서 AI규제가 가장 시급한 기술 부문은 어떤 것일까. 국내 법률 전문가들은 미국, 유럽과 마찬가지로 ‘딥페이크’와 ‘저작권’ 문제, ‘개인정보침해’를 꼽았다. 지난해 생성형 AI가 등장한 이후 수많은 콘텐츠들이 쏟아지지만 이로 인해 발생하는 부작용에 대해선 국내 법안에서 아직 부족한 감이 있다는 것이다.

이유정 법무법인 원 인공지능대응팀장은 <시사위크>와의 통화에서 “AI학습에 사용되는 데이터 수집 및 이용 과정에서 발생할 수 있는 저작권, 개인정보침해 문제는 몇 년 전부터 논의가 되고 있다”며 “지난해 생성형 AI를 사용해서 만든 창작물에도 저작권을 인정할지 여부도 중요한 이슈가 되고 있어 이와 관련한 시급한 논의가 필요하다”고 설명했다.

이어 “뿐만 아니라 생성형 AI로 인한 가짜뉴스 생성, 딥페이크 범죄 이용 가능성이 높아지고 있다”며 “AI기반 버추얼 휴먼으로 인해 초상권을 비롯, 개인의 인격권 침해 문제도 우려돼 관련 문제들에 대한 법률적 규제가 필요하다고 생각한다”고 말했다.

이 같은 상황에 맞춰 우리 정부 역시 관련 규제 마련에 속도를 내고 있다. 13일 과학기술정보통신부가 발표한 ‘2024년 주요정책 추진계획’에 따르면 정부는 오는 3월 산업·사회·문화 전반의 디지털 쟁점 17개 분야 52개에 대한 ‘새로운 디지털 질서 정립 추진계획’을 수립한다. 여기에는 ‘인공지능기본법’ 제정 및 민간자율의 AI 신뢰성 검·인증 제도 운영을 활성화한다는 목표가 담겨있다.

다만 국내의 경우 미국과 유럽에 비해 AI규제 관련 법안 처리 속도는 너무 느리다는 것이 전문가들의 중론이다. 이유정 팀장은 “우리나라에서는 AI산업 육성 및 신뢰기반 조성 등에 관한 법률, AI책임법 등이 국회에 발의돼 있는 상태”라며 “AI와 관련한 규정을 새로 추가한 저작권법 개정안, 콘텐츠 산업 진흥법 개정안 등도 국회에서 논의 중이지만 별로 진전이 없다”고 지적했다.

이어 “국내 AI기술 수준과 사용자 규모 등을 고려해 볼 때 사용자들이 안심하고 사용할 수 있는 신뢰할 수 있는 기술에 개발 원칙이 확립돼야 할 것”이라며 “특히 고위험 AI기술을 사용하는데 일정한 정도의 규제가 필요할 것으로 보인다”고 조언했다.

저작권자 © 시사위크 무단전재 및 재배포 금지
이 기사를 공유합니다