「AI 기본법」주요 내용과 시행과제

1. 서론

AI에 대한 기본정책 방향과 지원 근거 및 규제를 담고 있는 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 “AI 기본법”)이 2025년 1월 제정됐다. 2026년 1월 22일 시행될 예정이므로 불과 시행을 10여 개월 앞두고 있다.1

AI 기본법은 인공지능 정책 추진체계, 기술개발 및 산업육성을 위한 지원 등 다수의 진흥시책을 담고 있다. 이는 인공지능 정책의 안정적 추진기반을 마련한 것으로 중요한 의의를 지닌다. 추후 인공지능 정책이 ‘일시적·단발적’이 아닌, ‘체계적·종합적’ 국가의 중점 정책영역으로 시행되는데 기여하리라 기대된다.

AI 기본법은 AI 산업 및 기술 진흥뿐 아니라 ‘인공지능 투명성 확보의무(제31조)’, ‘인공지능 안전성 확보의무(제32조)’, ‘고영향 인공지능 사업자의 책무(제34조)’ 등 중요 규제사항을 담고 있다. 이러한 규제의 상당 부분은 유럽연합의 AI법(이하 “EU AI법”)2과 유사한 내용을 담고 있으나, 시행 시기에 있어서 국내 규제내용이 우선 시행되므로 세계 최초의 ‘인공지능 규제’ 사례가 될 수 있다.3

그러나 최근 EU 내에서도 EU AI법에 대한 반성과 시행에 대한 문제점이 제기되고 있는 바,4 우리나라가 세계 최초의 시행이니만큼 신중을 기할 필요가 있다. 이러한 가운데 정부는 AI 기본법의 시행을 앞두고 기업들이 새로운 법제도에 대비할 수 있도록 시행령 초안을 2025년 3월 중에 공개하여 다양한 의견을 수렴할 예정이라고 밝혔다.5 따라서 이하에서는 AI 기본법의 주요 내용과 시행과 관련하여 쟁점이 될 현안을 검토한다.

2.「AI기본법」주요 내용

AI 기본법의 주요 내용은 크게 정책 추진체계, 기술개발 및 산업육성을 통한 진흥, 인공지능 윤리 및 신뢰성 확보를 위한 규제로 나누어 볼 수 있다. AI 기본법은 “인공지능의 건전한 발전을 지원하고 인공지능사회의 신뢰 기반 조성에 필요한 기본적인 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화하는데 이바지하는 것”을 목표로 한다(제1조).

따라서 조문 구성의 상당 부분이 정책 추진을 위한 지원시책에 주안점을 두고 있으며, 법의 실효성 확보방식 역시 형벌보다는 정부의 조사에 따른 위반행위의 중지나 시정조치에 중점을 두고 있다. 주요 내용은 다음 표1과 같다.

표1. AI기본법의 주요 내용

구분주요 내용
추진체계(제6조~제12조)● 인공지능 기본계획(§6)
– 주체 및 절차 : 과학기술정보통신부장관 국가인공지능위원회의 심의ㆍ의결을 거쳐 수립ㆍ시행
– 수립 주기 : 3년
– 주요 내용 : 기본 방향, 전문인력 양성, 진흥을 위한 재원 확보와 투자 방향, 신뢰 기반 조성 등
● 국가인공지능위원회(§7~§10)
– 위상 : 대통령 소속
– 위원장 : 대통령
– 위원 : 부위원장 1명(민간전문가, 대통령 지명)을 포함한 45명 이내
– 기능(심의, 의결) : 기본계획 수립, 인공지능 활용 촉진, 고영향 인공지능 규율 등
● 인공지능정책센터 및 인공지능안전연구소(§11~§12)
AI 기술 및 산업 진흥(제13조~26조)● 인공지능산업 기반 조성
– 인공지능기술 개발 및 안전한 이용 지원(§13)
– 인공지능기술의 표준화(§14)
– 인공지능 학습용데이터 관련 시책의 수립 등(§15)
● 인공지능기술 개발 및 인공지능산업 활성화
– 인공지능기술 도입ㆍ활용 지원(§16)
– 중소기업 특별지원(§17). 창업의 활성화(§18), 인공지능 융합의 촉진(§19)
– 제도개선(§20), 전문인력 확보(§21), 국제협력 및 해외시장 진출의 지원(§22)
– 인공지능집적단지 지정, 실증기반 조성, 데이터센터 관련 시책의 추진(§23~§25)
– 한국인공지능진흥협회의 설립(§26) 등
AI 윤리 및 신뢰성 확보를 위한 규제(제31조~제34조, 제40조)● 인공지능 투명성 확보 의무(§31)
– 사전 고지의무 : 고영향 인공지능이나 생성형 인공지능을 이용한 제품 또는 서비스를 제공하는 경우 이용자(또는 소비자)에게 인공지능을 이용하였다는 것을 고지
– AI 생성물 표시의무 : 생성형 인공지능에 의하여 생성되었다는 사실 및 가상의 음향, 이미지 또는 영상 등의 결과물을 제공하는 경우 그러한 결과물이라는 사실을 표시
● 인공지능 안전성 확보 의무(§32)
– 대상 : 누적 연산량이 대통령령으로 정하는 기준 이상인 인공지능시스템
– 이행사항 : 인공지능 수명주기 전반에 걸친 위험의 식별ㆍ평가 및 완화, 인공지능 관련 안전사고를 모니터링하고 대응하는 위험관리체계 구축
● 인공지능 윤리원칙 이행을 위한 민간자율인공지능윤리위원회 설치(§27-§28)
● 고영향인공지능 확인(§33)
– 자체적으로 사전검토 하되, 필요한 경우 과학기술정보통신부장관에게 고영향 인공지능에 해당하는지 여부를 확인받음
● 고영향 인공지능 사업자 책무(§34)
– 위험관리방안의 수립ㆍ운영
– 인공지능의 최종결과 도출의 주요 기준, 학습용데이터의 개요 등에 대한 설명
– 이용자 보호 방안 수립ㆍ운영- 고영향 인공지능에 대한 사람의 관리ㆍ감독, 안전성ㆍ신뢰성 확보를 위한 조치의 내용을 확인할 수 있는 문서의 작성과 보관,
– 그 밖에 고영향 인공지능의 안전성ㆍ신뢰성 확보를 위하여 위원회에서 심의ㆍ의결된 사항
● 사실조사(§40) : 과기정통부장관의 인공지능사업자에 대한 자료 제출 및 조사권, 안전성 확보 의무, 고영향 사업자 책무 위반되는 사항을 발견하거나 혐의가 있음을 알게 된 경우
– 위반한 사실이 있다고 인정되면 인공지능사업자에게 해당 위반행위의 중지나 시정을 위하여 조치를 명할 수 있음, 불이행시 3천만원 이하 과태료 부과

3. 「AI 기본법」 시행 현안과 과제

. AI의 법적 개념

모든 정책과 규제의 시작은 법적 용어 정의에서 시작된다. 우리 AI 기본법상 AI시스템의 개념은 다음 표2에서 보는 바와 같이 EU AI법과 거의 대동소이하다.

표 2. AI 시스템의 개념정의

EU AI법AI 기본법(제2조제1호 및 제2호)
다양한 수준의 자율성을 갖도록 설계된 기계 기반 시스템
② 배포 후 적응성을 나타낼 수 있으며(may exhibit),
③ 명백한 또는 내재적 목표를 위해,
④ 입력 데이터를 기반으로 예측, 콘텐츠 생성, 추천 또는 물리적·가상 환경에 영향을 미치는 결정을 생성하는 방법을 추론하는 시스템
다양한 수준의 자율성과 적응성을 가지고    
② 주어진 목표를 위하여
③ 실제 및 가상환경에 영향을 미치는 예측, 추천, 결정 등의 결과물을 추론하는 인공지능 기반 시스템

이러한 개념에 대하여는 특정 수준 이상의 자율성이 필요하다는 기준이 없으며, 적응성에 대해 ‘may’라는 표현을 사용함으로써 배포 후 적응성을 나타내지 않아도 AI 시스템으로 간주돼 지나치게 AI시스템의 개념을 확장시키게 된다는 한계가 있다. 즉 예측가능 AI시스템은 기계 학습 기반의 예측 불가능한 시스템과 동일한 수준의 위험을 초래하지 않음에도 불구하고 EU AI법은 이러한 차이를 반영하지 않았으며, 우리 역시 그대로 수용하고 있다. 이는 AI 시스템의 의미를 사실상 거의 모든 SW시스템으로 확장하는 결과를 초래할 수 있다.6

테스트 절차, 학습데이터 설명의무, 기록 유지, 투명성 요건, 인간 감독, 사후 시장 모니터링 시스템 등은 모두 예측 불가능한 위험을 낮추는 규제다. 그러나 이러한 폭넓은 AI 시스템에 대한 법적 정의로 인해 예측가능시스템인 결정론적 소프트웨어(deterministic software systems) 역시 고위험 영역에서 사용될 경우 엄격한 규제를 받게 될 수 있다.

. 투명성 규제

투명성 의무는 i) 해당 제품 또는 서비스가 인공지능에 기반한다는 것을 이용자(또는 소비자)에게 고지할 의무, ii) 인간의 창작 또는 생성물과 구분하기 위해 AI 생성물임을 표시하도록 하는 의무 그리고 iii) 학습데이터에 대한 설명의무로 나눌 수 있다. 우리 AI법은 i) 고지의무와 ii) 표시의무에 대해 규정하고 있다. 인공지능사업자는 고영향 인공지능이나 생성형 인공지능을 이용한 제품 또는 서비스를 제공하려는 경우 제품 또는 서비스가 해당 인공지능에 기반해 운용된다는 사실을 이용자에게 사전에 고지하여야 한다(제31조제1항). 또한 생성형 인공지능 또는 이를 이용한 제품 또는 서비스를 제공하는 경우 그 결과물이 (생성형) 인공지능에 의하여 생성되었다는 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지 또는 표시하여야 한다.

그러나 AI 생성물 표시의무가 집행되기 위해서는 AI 생성물을 인간 창작과 식별하는 기술적 수단과 기준이 완비되어야 한다. 안타깝게도 현재 상황에서 그 기술적 조치는 불완전, 불명확하다. 일례로 오디오의 경우 메타(Meta)의 오디오씰(AudioSeal)은 AI가 생성한 특정 부분을 식별할 수 있는 기술로 사람이 들을 수 없는 주파수 영역에 워터마크 신호를 삽입해서 감지할 수 있는 기술이다. 다만 여전히 수백만 분이나 되는 분량의 오디오 파일들이 유통되고 있는 SNS 환경에서는 실용적이지 않다는 평가다.7

구글(Google)의 딥마인드(DeepMind) 역시 오용 콘텐츠의 제작을 제한하기 위해 워터마크인 신스아이디(SynthID)를 개발했다. 이는 이미지에 특정 표시를 삽입하는 방식으로 기존 워터마크는 이미지를 변형할 경우 AI로 만드는 과정에 삭제가 되거나 알 수 없는 문제를 대응하기 위함이다. 이미지를 편집하거나 스크린 샷을 찍어도 감지할 수 있도록 설계가 됐고 이론적으로 이러한 도구는 기업이 콘텐츠 관리 기능을 개선하고 합의되지 않은 딥페이크 등 가짜 콘텐츠를 더 빨리 발견하는데 도움을 줄 수 있다. 그러나 이러한 시스템 역시 아직 실험 단계에 불과하다.8

머신러닝을 사용해 AI 산출물 여부를 판단하는 GPTzero, OpenAI AI Text Classifier, Copyleaks 등도 많은 오류가 있는 상황이다. ChatGPT를 제공하는 OpenAI는 독자적인 AI 콘텐츠 탐지 도구인 Classifier를 개발 출시했지만, “주요 의사결정 도구로 사용해서는 안 되며, 텍스트의 출처를 판단하는 다른 방법을 보완하는 용도로만 사용해야 한다”고 언급하면서 그 한계를 명확히 했다. 결국 OpenAI는 이 Classifier가 제출된 텍스트의 작성자가 사람인지 AI인지 정확하게 분류하지 못했다는 것을 확인하고 반 년 만인 2023년 7월 20일 이 서비스를 중단했다. 특정 단어로 이루어진 special list를 설정하여 알고리즘으로 AI 산출물 여부를 탐지하는 워터마크 기술은 전 세계 모든 AI 개발사가 채택해야 실효성이 있는데, 다양한 방식의 작업에 표준화된 AI 워터마크 기술 적용이 곤란하고, 나아가 워터마크 방식이 이미지나 음악 등 콘텐츠 종류에 따라 다르다는 점과 표준 워터마크 알고리즘이 존재하지 않는다는 점에서, 다양한 생성형 AI에 대응하는 워터마크 체계를 만들기 위해서는 여전히 기술적, 시간적 제약이 존재한다.

한편 AI생성물은 왕왕 인간 창작과 혼합되는 경우가 많다. AI가 만든 음악에 인간의 창작성을 가미한다든지, AI 생성 동영상에 인간이 수정, 보완 또는 편집을 하는 경우다. 이러한 창작물의 경우 AI기여 부분만 추출하여 이를 식별(표시)하는 것은 현재 기술상 불완전하다. 인간이 창작한 부분을 제거해 인공지능 기여분을 추출하는 기술이 개발된다 할지라도 그 신뢰도와 정확성에 대한 보증(검증) 혹은 인증 문제가 여전히 남아있다.

불완전한 수단을 전제로 투명성 의무를 규범화 하는 것은 결국 법을 준수할 수 없는 선량한 시민을 범법자로 양산하게 된다. 따라서 법률로 엄격하게 의무를 부과하기보다 기업 스스로 자율적 투명성 확보 노력을 할 수 있도록 독려 및 지원하는 방안에 대한 고민이 필요하다. 또한, AI 생성물 식별기술과 학습데이터 출처표시 기술의 발전을 위한 독려·지원책 마련이 더 현실적인 부분이다.

일례로 AI 선도국가라고 할 수 있는 미국은 2024년 2월 상무부 NIST(국립표준기술원) 산하에 AI 안전· 보안·신뢰 전담 기관인 ‘미국 AI 안전연구소(US AI Safety Institue)’를 설립했다.9 이후 OpenAI와 앤트로픽(Anthropic)이 AI 안전연구소와 협약을 맺고 새로운 AI 모델 공개 전후에 안전성과 성능 테스트를 받기로 했다.10 이와 같은 자율적 협력은 AI 기업들로 하여금 규범을 회피하기보다 자율적인 표준화와 기술적 규범을 수용하고 개발에 참여하려는 움직임을 강화하게 한다. 정부는 AI 생태계가 규제를 넘어선 자율적 책임을 실현할 수 있도록 산학연 협력을 통해 식별 기술에 대한 연구개발을 활성화하고, 공공 R&D 자금을 투입해서 AI 기업들이 부담 없이 기술 개발에 집중할 수 있는 환경을 제공하는 방안을 고려해야 할 것이다.

또 다른 예로 시카고 대학의 연구원인 Dhawn Shan은 AI 모델이 예술가들의 작품을 무단으로 학습하는 것을 방지하기 위해서 Glaze와 NightShade와 같은 도구를 개발했다.11 이 도구들은 예술가들이 자신의 창작물을 AI 학습으로부터 보호할 수 있도록 돕고 있으며, 자율적으로 권리 보호에 기여할 수 있는 도구들을 제공한다. 또한 스탠포드 대학의 기반모델 연구센터(The Center for Research on Foundation Models, 이하 ‘CRFM’)에서 기반 모델 제공의 투명성을 3가지(Upstream, Model, Downstream)로 분류해서 데이터 소스 공개, 신뢰성, AI 생성 콘텐츠 탐지 등의 100여 개 지표를 제시하며 투명성 규제 기준을 마련하는데 기여하고 있다.12

이와 같은 자발적인 노력은 기술적 도구와 자율적 행동 지침을 활용해 AI 학습의 투명성을 높이기 위한 능동적인 노력을 의미한다. 이는 AI 기술의 오용을 방지하고 학습데이터 권리자들이 자신의 창작물을 보호할 수 있도록 돕는 중요한 자율적 대응이다. 이러한 자율적 투명성 확보는 사회적 신뢰를 구축하고, 기술 혁신과 윤리적 책임을 동시에 추구하는 중요한 역할을 하게 될 것이다.

특히 정부는 AI 기술의 발전 속도를 저해하지 않으면서도 기업들이 자율적으로 AI 생성물의 투명성과 책임성을 이행할 수 있도록 기술 검증과 인증을 민간이 주도할 수 있는 방향으로 지원할 필요가 있다. 그러나 이러한 과정은 오랜 개발 시간과 많은 비용을 수반하기 때문에, 대규모의 AI 기업 내부 품질 보증 및 관리조직을 갖춘 대기업과 달리 중소기업과 스타트업은 이러한 신뢰성 문제를 다루는 데 어려움을 겪을 수밖에 없다. 중소기업의 혁신 촉발을 위해 이에 대한 지원책 마련도 고민돼야 할 것이다.

. 고영향 인공지능 사업자의 기준과 책무

AI 기본법은 고영향 인공지능에 해당되는 10가지 영역(에너지, 먹는물, 보건의료, 의료기기, 원자력, 범죄수사용 생체인식, 채용/대출등 개인의 권리ㆍ의무 관계에 중대한 영향, 교통안전, 공공서비스, 교육기관의 학생평가) 뿐만 아니라 “그 밖에 사람의 생명ㆍ신체의 안전 및 기본권 보호에 중대한 영향을 미치는 영역으로서 대통령령으로 정하는 영역”으로 추가될 수 있음을 위임하고 있다.

EU AI법 조차도 고위험 인공지능 시스템에서 제외할 수 있는 기준(즉 역으로 생각하면 해당기준)을 제시하고 있으나,13 우리 AI 기본법은 고위험 인공지능에서 제외되는 절차와 방법은 없다. 더불어 “사람의 생명ㆍ신체의 안전 및 기본권 보호”라는 모호한 방향만 제시한 채 구체적으로 어떠한 영역이 고영향 인공지능으로 간주되는 영역인지 대강의 기준조차 제시하지 않고 “사람의 생명·신체의 안전 및 기본권 보호”라는 동어만 반복하며 대통령령에 위임하고 있다.

또한 인공지능사업자는 고영향 인공지능 또는 이를 이용한 제품·서비스를 제공하는 경우 고영향 인공지능의 안전성·신뢰성을 확보하기 위하여 다음 각호를 포함하는 조치를 대통령령으로 정하는 바에 따라 이행하여야 한다. 즉 의무사항으로 대표적인 이 법의 규제라고 할 수 있다.

– 위험관리방안의 수립ㆍ운영

– 기술적으로 가능한 범위 내에서의 인공지능이 도출한 최종결과, 인공지능의 최종결과 도출에 활용된 주요 기준, 인공지능의 개발ㆍ활용에 사용된 학습용데이터의 개요 등에 대한 설명 방안의 수립ㆍ시행

– 이용자 보호 방안의 수립ㆍ운영

– 고영향 인공지능에 대한 사람의 관리ㆍ감독

– 안전성ㆍ신뢰성 확보를 위한 조치의 내용을 확인할 수 있는 문서의 작성과 보관

– 그 밖에 고영향 인공지능의 안전성ㆍ신뢰성 확보를 위하여 위원회에서 심의ㆍ의결된 사항

그러나 이러한 의무 중 제34조제1항 제6호에서는 “국가인공지능위원회에서 심의, 의결된 사항”을 의무사항으로 규정하고 있다. 인공지능 개발·이용사업자는 규제를 감안하여, 규제에 부합하도록 서비스나 제품을 고안한다. 그런데 이 조문에 의하면 어떠한 의무(규제)가 발생할지 모르는 상황에서, 즉 위원회가 어떠한 사항을 사업자 이행사항으로 심의, 의결할지 모르는 상황에서 서비스를 개발해야 한다. 위원회의 심의 의결에 의해 사업자의 의무를 정하는 것은 규제 명확성원칙에 위배될 소지가 다분하다. 적어도 법률·시행령·고시 등의 법규는 법령에서 정한 입법절차가 있으니 규제 수범자에게 예측가능성이라도 있지만, 위원회의 심의, 의결에 의해 규제가 정해질 경우 그 내용과 절차의 불명확성으로 인해 수범자 역시 매우 혼란스러울 수밖에 없고 이는 결국 시장의 혼란을 야기하게 될 것이다.

4. 마무리

AI 기본법을 통해 AI 정책의 종합적·체계적 추진기반을 마련한 것은 매우 고무적인 일이다. 무엇보다도 기본권 영향평가와 윤리원칙의 자율적 시행 등은 민간의 창의와 자율을 존중하고자 한 입법자의 고민을 역력히 보여준다고 생각한다. 그러나 AI 기본법이 규정하고 있는 일부 규제가 안고 있는 문제는 이미 EU AI법 시행 관련 EU 내에서도 여러 차례 문제점으로 제기되고 있는 사안들이다. 무엇보다도 고영향(고위험) 인공지능 사업자의 의무, 안전성 확보 의무, 투명성 의무 등은 일정부분 EU보다도 우리가 먼저 시행해야 하는 부담에 직면해 있다. AI 정책 영역이 너무나 광범위하고, 개별 국가의 정치·경제·사회·문화적 환경이 달라 EU AI법의 글로벌 규범화 가능성, 즉 브뤼셀 효과(Brussels Effect)는 불분명하다. 최근 몇 년 동안 학자들은 EU AI법이 새로운 브뤼셀 효과를 촉발할지 여부를 논의해 왔으며. 일부는 AI법이 브뤼셀 효과를 일으킬 수 있다고 주장하는 반면,14 그렇지 않다고 보는 시각도 강력하다.15

이렇게 모든 것이 불분명한 상황에서 우리는 세계 최초의 인공지능 규제 시행보다는, 글로벌 상황을 주지하면서 우리에게 적합한 투자와 진흥 정책을 추진할 필요가 있다. 과거 ‘인터넷 실명제(제한적 본인확인제)’·‘웹하드 등록제’ 등의 중요 규제를 세계 최초로 시행한 결과, 디지털의 탈국경성에 의해 해외시장으로 회피, 이전하는 결과를 초래하면서 우리의 산업경쟁력만 약화시킨 경험이 있다. 특히 AI등 첨단기술에 대한 ‘규제’는 기술의 속도와 영향력을 정확히 파악하지 않고 즉응적 대응으로 전락할 수 있다. 그러한 규제가 산업에 미치는 부정적 여파는 우리가 애써 이룩한 디지털 경제를 쇠퇴시킬 수 있으므로 정말 신중할 필요가 있다. 최근 미국 28개 주에서 AI 규제가 스타트업에 미치는 영향을 조사한 결과에 의하면 “AI 규제 제안(AI regulation proposals)은 AI 스타트업이 자금을 확보할 가능성을 매년 2.3% 감소시키고, 인수될 가능성을 1.5% 증가시키는 것”으로 나타났다. 규제 압박이 스타트업의 자본 접근성을 재편하고, 이를 전략적 ‘인수(exit)’로 내몰고 있다고도 볼 수 있다.16

AI 기본법이 AI 산업 생태계뿐 아니라 우리의 삶에 긍정적 영향을 배가할 수 있도록 시행에 앞서 이러한 현안들이 신중히 고려돼야 할 것이다. 그리고 시행령을 통해 보완 가능한 부분과, 추후 입법 개선이 필요한 부분들도 함께 고민돼야 할 것이다.

<참고문헌>

  • Almada. M., and Radu. A., ‘The Brussels Side-Effect: How the AI Act Can Reduce the Global Reach of EU Policy’ (2024) German Law Journal 1-18.
  • European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))
  • Lütz F., ‘How the ‘Brussels effect’ could shape the future regulation of algorithmic discrimination’, 1 Duodecim Astra(2021).
  • Mazzini G., and Scalzo, G., ‘The Proposal for the Artificial Intelligence Act: Considerations around Some Key Concepts’ in Carmelita Camardi (ed), La Vie Europea per l’intelligenza artificiale (Cedam 2022)
  • Mulla, J., AI Regulation and Entrepreneurship (October 11, 2024).
  • OECD, OECD Framework for the Classification of AI Systems, (OECD Digital Economy Papers, No. 323, February 2022).
  • Pagallo, U. and others, ‘The underuse of AI in the health sector: Opportunity costs, success stories, risks and recommendations’ (2024) 14 Health and Technology 1.
  • Roberts H., and others,, ‘Global AI governance: barriers and pathways forward’ (2024) 100(3) International Affairs.
  • Siegmann C. and Anderljung M., ‘The Brussels effect and artificial intelligence: How EU regulation will impact the global AI market’ (2022).
  • Smuha N., ‘From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence’, 13(1) Law, Innovation and Technology(2021).
  • Wagner G., ‘Liability Rules for the Digital Age: Aiming for the Brussels Effect’ (2023) 13(3) Journal of European Tort Law 191-243.
  1. 시행 2026. 1. 22., 법률 제20676호, 2025. 1. 21., 제정 [본문으로]
  2. European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD [본문으로]
  3. EU AI법은 2024년 8월 1일 발효되며, 12개월 후인 2025년 8월부터는 범용(General Purpose AI) AI에 대한 규정이 적용되며, 이는 파운데이션 모델 제공자를 대상으로 기술 문서 작성, 투명성 확보, 리스크 평가와 같은 의무를 부과한다. 이어 발효 24개월 후인 2026년 8월에는 의료, 자율주행, 교육 등 고위험 AI 시스템(High-Risk AI Systems)에 대한 규정이 시행된다. AI 기반 의료기기와 같은 특정 고위험 제품에 대한 규정은 발효 36개월 후인 2027년 8월부터 적용된다. [본문으로]
  4. EU 대표적 규제주의자 티에리 브르통 EU 집행위원이 지난해 9월 사임하였으며, 마크롱 프랑스 대통령은 “AI 서밋” 개회사에서 “우리는 (규제를) 단순화할 것”이며 “우리가 전 세계와 다시 발을 맞춰야 한다는 것은 매우 분명한 일”이라고 밝힌바 있다. [본문으로]
  5. 장유미(zdnet.co.kr, 2025.2.26), “[현장] AI 기본법 시행령 초안, 3월에 나온다…”세밀한 하위 법령 마련 필요”, https://zdnet.co.kr/view/?no=20250226124438&utm_source=chatgpt.com(2025.2.27.확인 [본문으로]
  6. Thibault Schrepel, Decoding the AI Act: A Critical Guide for Competition Experts (ALTI Working Paper, Amsterdam Law & Technology Institute – Working Paper 3-2023, October 2023), p. 11, Available at https://ssrn.com/abstract=4609947 (2025.2.9 최종확인). [본문으로]
  7. MIT Technology Review, AI로 생성한 음성 감지하는 워터마크 기술 개발한 메타, available at https://www.technologyreview.kr/ai로-생성한-음성을-감지하는-워터마크-기술을-개발한/,(작성일자: 2024.06.27., 최종확인: 2024.09.16. [본문으로]
  8. Identifying AI-generated images with SynthID, available at https://deepmind.google/discover/blog/identifying-ai-generated-images-with-synthid/,(작성일자: 2023.10.29., 최종확인: 2024.09.13. [본문으로]
  9. NIST, U.S.Artificial Intelligence Safety Institute, available at https://www.nist.gov/aisi, (2024.11.24.최종확인 [본문으로]
  10. ANSI, Supporting AI Safety, U.S. AI safety Institute Signs Agreements with ANTHROPIC and OPENAI to enable collaborative research, available at https://www.ansi.org/standards-news/all-news/2024/09/9-9-24-us-ai-safety-institute-signs-agreements-with-anthropic-and-openai,(작성일자:2024.09.09., 최종확인: 2024.11.09. [본문으로]
  11. MIT Technology Review, 올해의 혁신가에 AI에 맞선 예술가들의 싸움 도운 숀샨 선정, available at https://www.technologyreview.kr/2024-올해의-혁신가에-ai에-맞선-예술가들-싸움-도운-숀샨/((2025.2.9. 최종확인). 나이트쉐이드(NightShade)는 저작권자가 자신의 저작물이 학습에 사용되는 것을 원하지 않을 경우 이를 크롤링 해서 학습데이터로 사용하면 모델이 피해입게 만드는 솔루션이다. 또한 글레이즈(Glaze)는 자신의 스타일에 따른 이미지 생성을 방해하는 솔루션이다. [본문으로]
  12. BOMMASANI, Rishi, et al. The foundation model transparency index. arXiv preprint arXiv:2310.12941, 2023, pp. 15~20; 다만 CRFM에서 LLMs에 대한 평가한 결과는 아직 미흡한 수준으로 평가되고 있다. 예로 ‘23.10 기준 가장 높은 점수는 오픈소스 방식의 메타의 라마2가 획득한 점수가 100점 만점에 54점 수준에 불가하다고 발표됨. [본문으로]
  13. EU AIA 제7조제2항에 따르면, 유럽연합 집행위원회(European Commission)는 부속서 III(Annex III)에 명시된 고위험 AI 시스템 목록을 수정할 때 다음과 같은 기준을 고려해야 한다.

    – AI 시스템의 의도된 목적과 현재 또는 미래의 사용 가능성 있는 범위

    – 인공지능시스템이 처리하고 사용하는 데이터의 성질 및 양

    – AI 시스템이 얼마나 자율적으로 작동하는지 여부

    – 해당 AI 시스템이 건강 및 안전에 해를 끼쳤거나 기본권에 부정적인 영향을 미쳤는지 여부

    – AI 시스템의 결과에 대한 사용자의 의존도

    – AI 시스템의 결과가 수정 가능(corrigible)하거나 되돌릴 수 있는(reversible)지 여부

    – 제품 안전성의 개선 가능성을 포함하여 개인, 집단 또는 사회 전체에 대한 인공지능시스템 배포의 이익 크기 및 가능성

    – EU 법률이 해당 위험을 방지하거나 완화할 수 있는지 여부 [본문으로]

  14. Fabian Lütz, ‘How the ‘Brussels effect’ could shape the future regulation of algorithmic discrimination’, 1 Duodecim Astra(2021), pp.142-63; Charlotte Siegmann and Markus Anderljung, ‘The Brussels effect and artificial intelligence: How EU regulation will impact the global AI market’ (2022) arXiv preprint arXiv:2208.12645. Available at https://arxiv.org/abs/2208.12645 (2025.2.9 최종확인).; Gerhard Wagner, ‘Liability Rules for the Digital Age: Aiming for the Brussels Effect’ (2023) 13(3) Journal of European Tort Law 191-243; Nathalie A Smuha, ‘From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence’, 13(1) Law, Innovation and Technology(2021), pp. 57–84. Available at https://doi.org/10.1080/17579961.2021.1898300 (2025.2.9 최종확인). (“regulatory landscape for AI is trending towards at least a basic layer of convergence”). [본문으로]
  15. Alex Engler, ‘The EU AI Act Will Have Global Impact, but a Limited Brussels Effect’ (8 June 2022). Available at https://www.brookings.edu/articles/the-eu-ai-act-will-have-global-impact-but-a-limited-brussels-effect/(2025.2.9 최종확인).; M Almada and A Radu, ‘The Brussels Side-Effect: How the AI Act Can Reduce the Global Reach of EU Policy’ (2024) German Law Journal pp. 1-18. Available at https://doi.org/10.1017/glj.2023.108 (2025.2.9 최종확인).; Ugo Pagallo, ‘Why the AI Act Won’t Trigger a Brussels Effect’ (16 December 2023) in AI Approaches to the Complexity of Legal Systems, p.1 (Springer 2024, forthcoming). Available athttps://ssrn.com/abstract=4696148 (2025.2.9. 최종확인). [본문으로]
  16. Mulla, Junida, AI Regulation and Entrepreneurship (October 11, 2024). Available at SSRN: https://ssrn.com/abstract=4986041 or http://dx.doi.org/10.2139/ssrn.4986041 (2025.2.9 최종확인 [본문으로]
저자 : 김현경

서울과학기술대학교 IT정책전문대학원 교수 / KISO저널 편집위원