생성형 인공지능 모델과 콘텐츠 식별

1. 들어가는 말

생성형 인공지능(Generative AI)이란 이용자가 입력한 특정한 요구(prompt)에 따라 AI가 다양한 수준의 자율성을 가지고 블랙박스적인 경로에 따라 텍스트, 이미지, 오디오, 비디오 등의 콘텐츠를 생성하는 인공지능 기술을 말한다.1 챗GPT, Midjourney, Stable Diffusion 등과 같은 생성형 인공지능 모델은 인간처럼 창작적인 결과물을 생성할 수 있다는 점에서 기존의 범용형 인공지능 모델과는 차이가 있다.

최근 미드저니(Midjourney) 사가 2023년 3월 16일 출시한 이미지 생성 AI인 ‘미드저니 V5’는 실사와 같은 초고화질의 이미지를 생성할 수 있다. 2023년 3월 영국 탐사보도 전문매체 벨링캣(Bellingcat)의 창립자 엘리엇 히긴스(Elliot Higgins)는 ‘미드저니 V5’를 사용하여 ‘도널드 트럼프가 체포됐다’는 아래와 같은 다양한 가짜 이미지를 생성하여 트위터에 공개하였다.2

그림입니다.

원본 그림의 이름: CLP000037880dbc.bmp

원본 그림의 크기: 가로 800pixel, 세로 800pixel

미드저니 사는 ‘타인에게 공격적이거나 기타 모욕적인 이미지 또는 텍스트 프롬프트를 사용하는 것을 금지한다’는 이용약관3 위반을 이유로 히긴스에게 이용금지 조치를 내린 것으로 밝혀졌으며,4 안전 및 남용 문제 등을 이유로 무료 평가판 서비스를 중지한 바 있다.

또한, 인공지능 기술의 발전으로 딥페이크(deepfake)나 범죄에 악용될 수 있는 위험성도 증가하고 있다. 타인을 속이거나 협박함으로써 자금을 송금·이체하도록 하게 하거나 개인정보를 알아내어 자금을 송금·이체하는 ‘보이스피싱’에 인공지능 딥페이크로 목소리를 복제한 음성을 사용하는 사례가 급증하고 있다고 한다.5 그리고 생성형 인공지능에 의해 작성된 이미지, 비디오 및 기타 콘텐츠가 급증하고, 생성형 인공지능이 생성한 이미지와 실제 이미지를 구별하는 것이 어려워짐에 따라 저작권 보호는 기업에게 가장 큰 과제가 될 수 있고, 과학자들도 ‘챗GPT’가 쓴 논문 초록을 사람이 쓴 것인지 기계가 만들었는지 제대로 구분하지 못한다는 연구 결과가 나와 연구 또는 교육기관에 충격을 가져다주기도 했다.6

생성형 인공지능이 학습하는 과정에서 학습용 데이터를 이용하거나 이용자가 프롬프트로 입력하는 데이터에 제3자의 저작물, 개인정보, 영업비밀 등이 포함된 경우의 문제, 출력된 AI 생성물이 타인의 저작물과 유사할 경우의 저작권 침해 문제 등 다양한 법적 분쟁에 대한 우려가 존재한다. 또한, AI 전반에 관한 사회적 위험으로서 생성물에 부정확한 정보가 포함될 가능성, 심각한 인권 침해(특정 집단이 부당하게 차별받는 등), 경제 안보, 민주주의에 대한 개입, 환경에 대한 과도한 부담 등 기존 법령으로 충분히 대응할 수 없는 문제점도 지적되고 있다.

이와 같은 문제를 최소화하기 위하여 AI개발 기업의 자율적인 노력과 함께 각국의 규제기관들은 AI를 관리하고 규제하기 위한 규칙을 마련하기 시작했다. 이하에서는 생성형 AI를 둘러싼 신뢰도와 안정성 제고를 위한 기업들의 자율적 움직임과 주요 국가의 대응 동향을 살펴본다.

2. 생성형 인공지능 모델의 위험 최소화를 위한 기업의 자율적 노력

네이버와 카카오 등 국내 정보기술(IT) 기업들은 신뢰할 수 있는 AI 기술 개발과 함께 조작된 정보를 걸러내기 위해 노력을 기울이고 있다.7 카카오는 2020년 인공지능 기술을 활용한 ‘세이프봇(safebot)’ 기능을 도입했고, 2021년 11월 깃허브(GitHub)에 GPT-3 한국어 특화 대규모언어모델(LLM)을 공개한 바 있으며 금년 10월 최신성, 정확성 등을 높인 ‘코GPT 2.0’을 출시할 예정이다.8 네이버도 지난 8월 24일 ’팀네이버 컨퍼런스 단23‘에서 인공지능 서비스를 위한 대규모언어모델(LLM) ‘하이퍼클로바 X’ 개발과정에서 자체 데이터세트를 반복 학습하고 고도화해 ‘신뢰할 수 있는 인공지능’을 만들기 위해 주력하고 있다고 설명했다.9

글로벌 빅테크들도 생성형 AI 결과물이 ‘할루시네이션(환각작용)’을 일으키는 걸 넘어 가짜뉴스나 왜곡된 이미지 생성 등으로 악용될 수 있다는 경고가 나오자 안심하고 안전한 AI 시스템 추진, AI 시스템에 대한 신뢰 구축, 그리고 콘텐츠에 대한 신뢰할 수 있는 정보를 확산하기 위한 기술개발에 뛰어들고 있다.10

마이크로소프트(MS)는 지난 3월에 텍스트 입력을 기반으로 사용자 맞춤형 AI 생성 이미지를 만들고 OpenAI의 DALL·E 기술을 활용해 입력 텍스트에 부합하는 이미지를 생성하도록 설계된 도구인 ‘빙 이미지 크리에이터(Bing Image Creator)’를 발표했다. 마이크로소프트는 이 도구의 오용 가능성에 대해 신중을 기하고 있으며 유해하거나 부적절한 이미지 생성을 방지하기 위한 안전장치인 ‘워터마크’를 넣겠다고 개발자 컨퍼런스인 ‘Microsoft Build’에서 밝혔다.11 또한 마이크로소프트는 환각작용을 포함한 여러 문제를 최소화하기 위해 다양한 안전장치를 마련했다고 한다. 오픈AI의 GPT4와 같은 강력한 대형 언어 모델과 MS의 방대한 검색 인덱스를 결합한 결과물에 콘텐츠 출처를 함께 제공하기로 했다. MS 365 앱에 내장되어있는 코파일럿(copilot) 기능은 사업 콘텐츠와 맥락에 근거한 답변을 제공해 부정확성을 줄였으며, 생성된 콘텐츠가 사용자에게 편향적이거나 불쾌감을 주지 않도록 하기 위한 안전장치도 마련했다. MS의 검색엔진 ‘빙’에는 사용자의 잠재적 피해를 식별하고 측정·완화하는 AI 기반 클래시파이어(Classifiers)와 메타 프롬프트(Metaprompt)가 있다. 클래시파이어는 텍스트를 분류해 다양한 유형의 잠재적 유해 콘텐츠를 잡아낸다. 해당 콘텐츠는 사용자에게 전달되지 않거나, 사용자와 대화를 다른 주제로 전환시킨다. 메타 프롬프트는 시스템이 MS의 AI 원칙12 과 사용자 기대에 따라 작동하도록 하는 등 모델에 지침을 제공해 동작시킨다.

구글은 ‘신뢰할 만한 AI’를 강조하며 AI 생성 콘텐츠를 식별할 수 있는 도구인 ‘워터마킹’과 ‘메타데이터’를 최근 공개했다. 구글은 두 기술을 바탕으로 검색 기능에 ‘이 이미지에 대하여(About this image)’라는 새로운 툴을 적용하겠다고 공식블로그를 통해 발표했다.13 이를 통해 구글 검색에 등장하는 이미지에 ‘달리’나 ‘미드저니’ 등 출처를 표시하는 것은 물론 이미지 제작자가 직접 관련 정보를 입력할 수 있도록 했다.14 또한 구글의 그룹사인 딥마인드(DeepMind)는 8월 29일(미국 시간) AI가 생성한 이미지에 사람의 눈으로는 알아볼 수 없는 워터마크를 삽입하는 기술인 ‘SynthID’를 출시하여, 이미지 품질 보존과 불법 조작을 방지하기 위한 노력을 하고 있다.15 향후 음성, 동영상, 텍스트 등 이미지 이외의 AI 모델로의 확장이나 다른 구글 서비스로의 확장도 예상된다.

3. 생성형 인공지능을 둘러싼 주요 국가의 규제 동향

(1) EU

EU에서는 2023년 6월 14일 유럽 의회를 통과한 인공지능법(Artificial Intelligence Act)16. 수정의결안의 구체적 설명은, 법무법인(유) 태평양, ‘EU AI법안의 EU의회 수정안 주요내용’, Legal Update, 2023. 5.26; 이해원, “EU AI 법안의 추진 경과 및 향후 전망”, KISO 저널 제51호(2023.6), 25-28쪽. )) 과 기존 데이터 보호법(General Data Protection Regulation, EU Regulation 2016/679, GDPR)을 통해 생성형 AI가 가져올 과제와 위험에 대응하려는 움직임이 나타나고 있다. 포괄적 규제를 모색하고 있는 인공지능법 수정의결안 Article 28 b에는 ‘생성형 AI 서비스제공자’에 대한 의무가 새롭게 추가되었다.17 표현의 자유와 같은 유럽연합의 핵심 권리와 가치를 보호하기 위해 챗GPT, 미드저니와 같은 LLM의 규제에 대한 EU역내에서 공감대가 형성됨에 따라,18 챗GPT를 포함한 생성기반모델(generative foundation models) 제공자는 생성 콘텐츠가 인간이 아닌 AI 시스템에 의한 생성물이라는 사실에 대한 투명성을 확보해야 한다. 즉, 생성형 AI 서비스제공자는 표현의 자유, 저작권 등의 권리를 침해하는 위법한 콘텐츠가 생성되지 않도록 하는 적절한 안전장치(adequate safeguards)를 확보하는 방법으로 생성형 AI 모델을 학습, 설계, 개발하여야 하며,19 생성기반모델은 콘텐츠가 인간이 아닌 AI시스템에 의해 생성되었다는 사실에 대한 투명성을 보장해야 한다.20 인공지능법 수정의결안은 향후 각 EU 국가가 비준하면 법으로 발효되는데, EU를 대상으로 생성형 AI를 접목한 제품 및 서비스를 제공하는 우리나라 기업들에게는 상당한 영향을 미칠 것으로 보인다.

EU 회원국에서는 2023년 3월 이탈리아의 데이터 보호 당국이 GDPR(일반 데이터 보호 규정) 위반(데이터 처리의 법적 근거의 불명확성, 미성년자 연령 확인 미실시 등)을 이유로 OpenAI사에 챗GPT의 일시적인 중단을 요청했다. 이후 정지 요청은 해제되었으나, 이에 따라 유럽 데이터 보호 이사회(European Data Protection Board: EDPB)에 챗GPT 관련 태스크포스가 설치되는 등 GDPR과의 정합성에 대해 EU 회원국의 검토가 이루어지고 있다.21

(2) 미국

미국에서는 2023년 4월 11일 미국 상무부 국가통신정보국(NTIA)이 AI의 감사, 평가 메커니즘 개발을 지원하는 정책 도구에 대한 의견 수렴을 시작했다. 22 같은 해 4월 25일 연방거래위원회(FTC), 법무부(DOJ), 소비자금융보호국(CFPB), 고용평등위원회(EEOC)는 AI를 포함한 자동시스템의 사용으로 인한 불법적인 편견과 차별 문제에 대해 소비자 보호법, 경쟁법 등 기존 법령을 엄격하게 적용한다는 공동성명을 발표했다.23 또한 OpenAI의 GPT-4와 같은 대규모 언어모델(LLM)은 ‘환각작용’이라고 불리는 허구를 만들어내는 경향이 있는데, 미국 FTC는 소비자 보호의 일환으로 OpenAI가 개인에 대한 ‘유언비어’로 이어질 수 있는 허구(환각)를 완화하거나 방지하기 위해 무엇을 하고 있는지를 조사하고 있다.24 미국 의회에서도 AI 규제에 대한 논의가 활발히 이루어지고 있지만,25 민간 차원에서는 과도한 규제에 대한 경계감이 강하다.

지난 2023년 7월 21일 OpenAI, Meta, Microsoft, Google, Amazon, Anthropic, Inflection 등 주요 AI 개발 기업들이 ‘AI 기술의 안전하고 투명한 개발을 위한 행정부의 노력을 지원하기 위한 자발적 노력’, 특히 AI가 생성한 콘텐츠에 ‘워터마크’를 넣는 등의 조치를 자발적으로 시행할 것을 백악관에 약속했다고 한다.26

AI 기업 7사는 시스템 출시 전 철저한 테스트 실시와 함께 리스크 완화 및 사이버 보안 투자 방법에 대한 정보 공유를 약속했으며, 이 노력의 일환으로 AI로 생성된 문장, 이미지, 음성, 동영상 등 모든 형태의 콘텐츠에 ‘워터마크’를 넣어 AI 기술이 사용되었음을 알 수 있도록 하는 시스템을 개발하겠다고 약속했다고 한다.27 이 디지털 워터마크는 이미지나 동영상 같은 디지털 콘텐츠에 저작권 정보와 같은 정보를 삽입하여 관리하는 기술을 말하며, 딥페이크와 같이 위조나 변조 판별이 가능하고 원본 출처 및 불법 복제를 추적할 수 있다.28

(3) 일본

일본 정부는 AI에 대한 법적 구속력이 있는 의무 규정은 불필요하다는 입장29 을 토대로 AI 원칙과 그 실천 지침 등 법적 구속력이 없는 중간적 지침30 을 발표하여 민간의 자율적인 규칙 수립을 유도해 왔다.31 다만, 자율주행, AI를 활용한 의료기기 분야 등 개별 법령 수준에서는 법 개정을 통해 규제를 정비하고 있으며, 관련 부처가 각각 소관 법령 범위 내에서 분야별, 용도별로 AI 관련 법 집행을 담당하고 있다. 하지만 지난해부터 생성 AI의 활용이 급속도로 확대되면서 그 잠재적 영향력을 감안한 새로운 논의가 급물살을 타고 있다고 한다.32 특히, 개인정보보호위원회는 생성형 AI 서비스가 확산되고 있는 점을 감안하여 2023년 6월 2일 ‘생성AI 서비스 이용에 관한 주의 환기 등에 관한 사항’을 발표함과 동시에 챗GPT의 개발 및 제공 사업자인 OpenAI사에 대해 주의를 환기하고 있다.33 그러나 이는 특정 행위가 불법임을 인정한 것이 아니며, 또한 생성형 AI에 대해 새로운 규제를 부과하는 것이 아니라, 현행 법령의 해석에 따른 주의 환기를 위한 것으로 생각된다.

4. 향후 전망

한국에서는 인공지능 윤리, 신뢰성 강화, 고위험 인공지능에 대한 규제 필요성이 논의가 활발히 이루어지고 있으며, 2020년 이후 여야 의원이 발의한 ‘AI 산업 육성 및 신뢰 기반 조성 등에 관한 법안’ 등 총 7개의 관련 법안을 통합한 단일안(인공지능산업 육성 및 신뢰 확보에 관한 법률안;윤두현의원 대표발의)이 국회 과학기술정보방송통신위원회(과방위)에 계류 중이다. 동법률안은 인공지능 산업 발전을 위한 진흥법으로 인공지능 기술 연구개발, 인공지능 서비스 출시를 우선 허용하고 문제가 생기는 경우에 한 해 규제하겠다는 우선 허용, 사후규제 원칙을 명문화하고 있다. 고위험영역 인공지능에 대하여 사전고지의무와 신뢰성확보 조치 의무를 부과하고 있지만(안 제27조), EU 인공지능법이 AI 서비스를 4가지 단계(최소 위험, 제한적 위험, 높은 위험, 수용불가능한 위험)로 구분하고 차등하여 규제하는 모델과는 거리가 있다. 이 법안은 AI산업을 전략적으로 육성하는 지원 체계를 만드는 내용이 핵심이라고는 하지만, 예측할 수 없는 AI 기술 발전 속도와 방향을 고려할 때, 특히 생성형 AI의 규제 경우 포괄적인 법규제(Regal Rule) 보다는 기존 법령 해석의 명확화나 가이드라인 등 소프트 로(Soft law)를 통해 사적 질서 형성을 우선시하는 접근방식이 바람직하다고 생각한다. 다만, EU에서는 생성형 AI를 염두에 두고 수정의결안이 통과됨에 따라 우리나라의 입법 검토 상황에도 영향을 미칠 수 있다. 예를 들어, EU의 AI 법이 전술한 내용대로 통과될 경우, EU를 대상으로 생성 AI가 포함된 제품 및 서비스를 제공하는 우리나라 기업에도 영향을 미칠 수 있고, 개인정보보호의 GDPR과 마찬가지로 다른 국가들도 같은 수준의 규제를 도입할 가능성이 있으며, 우리나라도 예외는 아니다. 따라서 해외의 생성 AI 규제 동향에 따라 국내에서도 법규제를 포함한 대응에 대한 검토가 가속화될 것으로 보인다. 앞으로도 국내외 규제 동향을 포함하여 생성 AI를 둘러싼 논의의 동향을 주시할 필요가 있다.

주요 AI 기업들은 인공지능의 이점을 최대화하고 위험을 최소화하기 위한 각국 정부의 움직임과 보조를 같이하는 것으로 보인다. AI 기업들이 인공지능 위험 최소화와 신뢰성 확보에 뛰어드는 이유는 생성형 AI 패권 경쟁과 무관치 않으며, 허위 정보나 편향성을 해소하지 않고는 이용자들의 선택을 받기 힘들다는 자체 판단과 전술한 EU, 미국을 비롯해 각국 정부에서 규제 강화 움직임에 대한 자율적 노력의 일환으로 볼 수 있다.

또한 AI 식별 기술의 정책적 필요성에 대해서는 공감하며, AI 산출물에 워터마크를 삽입하여 AI 산출물임을 쉽게 탐지할 수 있다면 AI 신뢰도 향상과 위험 최소화에 기여 할 수 있으리라 생각한다. 그러나 머신러닝을 사용하여 AI 산출물 여부를 판단하는 GPTzero, OpenAI AI Text Classifier,Copyleaks 등과 같은 기술도 많은 오류가 있는 상황이다.34 또한 특정 단어로 이루어진 special list를 설정하여 알고리즘적으로 AI 산출물 여부를 탐지하는 워터마크 기술은 전 세계 모든 AI 개발사가 채택해야 실효성이 있는데,35 다양한 방식의 작업에 표준화된 AI 워터마크 기술 적용의 곤란성이 존재하고, 나아가 워터마크 방식이 이미지나 음악 등 콘텐츠 종류에 따라 다르다는 점과 표준 워터마크 알고리즘이 존재하지 않는다는 점에서, 다양한 생성형 AI에 대응하는 워터마크 체계를 만들기 위해서는 기술적, 시간적 제약이 존재한다. 따라서 안전하게 위험을 관리하면서 AI 혁신을 실현하기 위해 새로운 법률, 규제, 감시가 필요한 것에 대해서는 인정하지만, 과도한 비용과 책임 위험에 직면하게 되지 않도록36 규제의 실효성과 효율성을 살펴보아야 할 것이다.

[참고문헌]

법무법인(유) 태평양(2023), ‘EU AI법안의 EU의회 수정안 주요내용’, Legal Update, 2023. 5.26;

이해원(2023), “EU AI 법안의 추진 경과 및 향후 전망”, KISO 저널 제51호.

우찬일(2022), “디지털 서명과 메시지 인증코드를 이용한 영상의 무결성 검증에 관한 연구”, 한국산학기술학회논문지, 23(11).

전응준(2023), “ChatGPT등 생성형 인공지능 모델이 제기하는 저작권 관련 쟁점”, 데이터와 지식재산, 한국디지털재산법학회 2023년 공동학술대회자료집(2023, 7.27).

다수의 인터넷게시 자료.

  1. 2023. 5.11.발표한 EU 의회의 ‘EU 인공지능 법안’ 수정안은 생성형 인공지능을 “AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video”라고 정의한다(Art. 28b 4). 위 EU 의회안은 일부 수정되어 2023. 6. 14. 의회에서 가결되었다. 전응준, “ChatGPT등 생성형 인공지능 모델이 제기하는 저작권 관련 쟁점”, 데이터와 지식재산(한국디지털재산법학회 2023년 공동학술대회자료집, 2023, 7.27), 31쪽. [본문으로]
  2. ARS TECHNICA, “AI-faked images of Donald Trump’s imagined arrest swirl on Twitter”, 2023.3.22., https://arstechnica.com/tech-policy/2023/03/fake-ai-generated-images-imagining-donald-trumps-arrest-circulate-on-twitter/(2023.8.11 최종방문) [본문으로]
  3. 이용약관 (Terms of Service (Effective Date: July 21, 2023) 9.1은 “Do not create images or use text prompts that are inherently disrespectful, aggressive, or otherwise abusive. Violence or harassment of any kind will not be tolerated.”라고 규정하고 있다. https://docs.midjourney.com/docs/terms-of-service2023.8.23.최종 방문) [본문으로]
  4. Tech Recipie, “이미지 생성 AI로 트럼프 전 대통령 체포 이미지를…”, 2023.3.25., https://techrecipe.co.kr/posts/52235(2023.8.11 최종방문) [본문으로]
  5. 매일경제, ““AI에 3억원 털렸다”…부모도 감쪽같이 속이는 AI 보이스피싱, 대처는“, 2023.7.15., https://www.mk.co.kr/news/economy/10785582(2023.8.8 최종방문) [본문으로]
  6. 조선비즈, “챗봇이 만든 논문, 과학자도 구분 못한다”, 2023.1.15., https://biz.chosun.com/science-chosun/science/2023/01/15/EOZW7FGZNNH5DCZFJCAQVGQK5E/(2023.8.8 최종방문) [본문으로]
  7. 동아일보, “글로벌 AI 경쟁, ‘기술’서 ‘책임감’ 단계로…“허위뉴스 등 부작용, 이용자 신뢰 얻어야”, 2023.6.23., https://www.donga.com/news/Economy/article/all/20230623/119901643/(2023.8.8. 최종 방문) [본문으로]
  8. AI타임스, “카카오, 10월 이후 ‘코GPT 2.0’ 출시…카톡 연계 서비스 실시”, 2023. 8.3., https://www.aitimes.com/news/articleView.html?idxno=152740 (2023.8.23. 최종 방문) [본문으로]
  9. 디지털데이리, “[DAN23] 베일 벗은 네이버 ‘하이퍼클로바X’, 누구나 손쉽게 쓰는 생성형 AI 시대”, 2023.8.24., https://m.ddaily.co.kr/page/view/2023082409233100810(2023.8.28.최종방문) [본문으로]
  10. 동아일보, “AI 신뢰 높여야” 압박에… 빅테크, 조작이미지 식별기술 등 개발“, 2023.5.18. https://www.donga.com/news/View?gid=119351926&date=20230518& (2023.8.8. 최종 방문) [본문으로]
  11. https://news.microsoft.com/build-2023-book-of-news/(2023.8.8. 최종 방문) [본문으로]
  12. MS 메타프롬프트 AI원칙( 공정성, 안정성 및 안전, 개인정보 보호 및 보안, 포용성, 투명성, 책임성의 6가지 원칙)은 프롬프트 엔지니어링 가이드에 소개되어 있다. 프롬프트 엔지니어링은 다양한 AI 모델에 적용할 수 있는 기술로, 특정 목적에 맞게 프롬프트를 구성하고 최적화하는 방법을 제공한다. 메타프롬프트는 AI 시스템의 동작을 안내하는 시스템 메시지의 한 종류이다. https://learn.microsoft.com/ko-kr/azure/ai-services/openai/concepts/advanced-prompt-engineering?pivots=programming-language-chat-completions(2023..8.23. 최종 방문) [본문으로]
  13. Google 한국 블로그, “대담하고 책임감 있는 AI를 함께 발전시키기 위한 구글의 노력”, 2023.7.25., https://korea.googleblog.com/2023/07/our-commitment-to-advancing-bold-and-responsible-ai-together.html(2023.8.23. 최종 방문) [본문으로]
  14. 구글, AI 생성 이미지 잡아내는 기술 공개, AI타임스(https://www.aitimes.com) 2023.5.17., (2023.8.8. 최종 방문) [본문으로]
  15. Digital Today, “구글, AI 생성 이미지에 워터마크 심는 ‘신스ID’ 공개”, 2023.8.30., https://www.digitaltoday.co.kr/news/articleView.html?idxno=486557(2023.9.1최종방문) [본문으로]
  16. Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD [본문으로]
  17. European Parliament, “EU AI Act: first regulation on artificial intelligence”, 2023.6.14., https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence(2023.8.8.최종 방문) [본문으로]
  18. CIO, “규제가 유럽 AI 산업 발전 방해”··· EU 기업, AI법 비판하는 단체 서한 공개“, 2023.7.3., https://www.ciokorea.com/news/297415(2023.8.23. 최종 방문) [본문으로]
  19. EU AI Act Art. 28b 4 a)-c) 참조. [본문으로]
  20. Proposal for a regulation Recital 60 g (new). 전응준, 앞의 글(주1), 35쪽. [본문으로]
  21. EDPB, “EDPB resolves dispute on transfers by Meta and creates task force on Chat GPT”, 2023, 4.13, https://edpb.europa.eu/news/news/2023/edpb-resolves-dispute-transfers-meta-and-creates-task-force-chat-gpt_en(2023. 8.23. 최종 방문) [본문으로]
  22. NTIA, “AI Accountability Policy Request for Comment” https://www.ntia.gov/issues/artificial-intelligence/request-for-comments(2023. 8. 23. 최종 방문) [본문으로]
  23. FTC, “Joint Statement on Enforcement Efforts Against Discrimination and Bias in Automated System”, 2023, 4, 25., https://www.ftc.gov/legal-library/browse/cases-proceedings/public-statements/joint-statement-enforcement-efforts-against-discrimination-bias-automated-systems(2023. 8. [본문으로]
  24. The Washington Post, “FTC investigates OpenAI over data leak and ChatGPT’s inaccuracy” 2023.7.13.,https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/(2023. 8.23. 최종 방문) [본문으로]
  25. Reuters, “U.S. Congress to consider two new bills on artificial intelligence”, 2023. 6.10., https://www.reuters.com/technology/us-congress-consider-two-new-bills-artificial-intelligence-2023-06-08/(2023. 8.23. 최종 방문) [본문으로]
  26. https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/ [본문으로]
  27. Ars Technica, “OpenAI, Google will watermark AI-generated content to hinder deepfakes, misinfo”, 2023.7.22., https://arstechnica.com/ai/2023/07/openai-google-will-watermark-ai-generated-content-to-hinder-deepfakes-misinfo/(2023.8.23. 최종 방문) [본문으로]
  28. 우찬일, “디지털 서명과 메시지 인증코드를 이용한 영상의 무결성 검증에 관한 연구”, 한국산학기술학회논문지, 23(11), 2022.11, 608쪽. [본문으로]
  29. 「GOVERNANCE INNOVATION:Society5.0の実現に向けた法とアーキテクチャのリ・デザイン」経済産業省 https://www.meti.go.jp/press/2020/07/20200713001/20200713001.html [본문으로]
  30. AI 原則の実践の在り方に関する検討会, 我が国の AI ガバナンスの在り方 ver. 1.1, https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_1.pdf, (2023. 8.8 최종 방문). [본문으로]
  31. AIネットワーク社会推進会議, 報告書 2022 – 「安心・安全で信頼性のある AI の社会実装」の更なる推進(2022. 7.25),https://www.soumu.go.jp/main_content/000826564.pdf (2023. 8.8. 최종 방문). [본문으로]
  32. 殿村桂司、今野由紀子, 生成AI(Generative AI)を巡る近時の動向, NO&T Technology Law Update ~テクノロジー法ニュースレター~ No.37(2023年6月), https://www.noandt.com/publications/publication20230609-1/(2023.8.8. 최종 방문) [본문으로]
  33. 個人情報保護委員会, 生成AIサービスの利用に関する注意喚起等について(令和5年6月2日), https://www.ppc.go.jp/news/press/2023/230602kouhou/(2023.8.8 최종방문) [본문으로]
  34. ChatGPT를 제공하는 OpenAI는 독자적인 AI 콘텐츠 탐지 도구인 Classifier를 개발 출시하면서, “주요 의사결정 도구(primary decision-making tool)로 사용해서는 안 되며, 텍스트의 출처를 판단하는 다른 방법을 보완하는 용도로만 사용해야 한다.”고 이 서비스를 추천하였다. 그러나 OpenAI는, 이 Classifier가 제출된 텍스트의 작성자가 사람인지 AI인지 정확하게 분류하지 못했다는 것을 확인하고 반년만에 2023년 7월 20일 이 서비스를 조용히 중단/연기했다. The Verge, “OpenAI can’t tell if something was written by AI after all”, 2023.7.26., https://www.theverge.com/2023/7/25/23807487/openai-ai-generated-low-accuracy(2023.8.23. 최종 방문) [본문으로]
  35. 전응준, 앞의 글(주1), 35쪽. [본문으로]
  36. CIO, “규제가 유럽 AI 산업 발전 방해”··· EU 기업, AI법 비판하는 단체 서한 공개“, 2023.7.3., https://www.ciokorea.com/news/297415(2023.8.23최종 방문) [본문으로]
저자 : 김병일

KISO저널 편집위원, 한양대학교 법학전문대학원 교수