클로드-미 국방부 충돌이 묻는 질문: 기업 자율규제와 국가 권력

정부가 자국 기업이 개발하거나 보유 중인 기술을 군사 목적에 활용하려고 할 경우, 해당 기업은 정부 요청에 무조건 따라야 하는 것일까? 전시징발령, 비상동원령 등 초법적 상황이 아닌 상황에서 기술기업은 국가의 요구에 맞서 어느 수준까지 자율규제를 할 수 있을까?
민간의 자율규제 정책은 국가 안보 차원의 요구와 충돌할 경우 갈등과 대립이 최고조에 이르게 된다. 기술 윤리, 자율규제와 관련해 난제가 다시 제기됐다. 이번엔 첨단 AI 기술이 대상이라는 점이 지금까지의 논쟁과 다르고, 해법이 더 어렵다.
이 문제를 다루기 위해서는 미국의 대표적인 AI기업 앤트로픽과 미 국방부 사이에 벌어진 최근의 충돌 과정을 살펴봐야 한다.
앤트로픽과 미 국방부의 충돌
문제는 첨단 AI 기술을 군사 목적에 활용하는 사안을 놓고 이뤄진 사용 계약 과정에서 개발사인 앤트로픽과 사용자인 미국 국방부 간의 이견에서 비롯했다. 2025년 7월, 양쪽은 앤트로픽의 AI 기술 클로드를 미군의 기밀 네트워크에 배치하는 2억 달러 규모의 계약을 맺었다. 국방부는 앤트로픽의 내부 기준을 준수하기로 했는데, 이후 협상 과정에서 국방부는 두 가지 핵심 조항의 삭제를 요구했다. ‘자율살상무기(LAWS)’와 ‘미국 시민에 대한 대규모 감시’에 대한 클로드 사용을 제한하는 조항이다. 앤트로픽은 자사 AI 모델 클로드에 ‘헌법’에 해당하는 최상위 윤리·안전 기준을 내재화하고, 특정 목적의 사용을 금지하고 있다. 앤트로픽의 내부 AI 원칙은 외국 대상 정보·작전 지원은 수용하나, 자율살상무기와 미국 시민에 대한 대규모 감시 용도로의 사용은 명시적으로 금지한다.
2026년 2월24일, 피트 헤그세스 미 국방장관은 앤트로픽의 CEO 다리오 아모데이에게 3일 안에 기존 계약에서 안전장치 조항을 삭제하라는 최후통첩을 전달했다. 하지만 앤트로픽은 국방부 요청을 받아들이지 않았다. 앤트로픽의 최고경영자 다리오 아모데이는 2월26일 공식 성명을 발표해 “현재 기술로는 자율 무기를 신뢰할 수 없고, 미국 시민을 대상으로 한 대규모 감시는 민주주의 가치에 위배된다”며 정면으로 국방부 요구를 거부했다.
2월27일 트럼프 대통령은 모든 연방 기관에 앤트로픽 AI 사용 중단을 지시했다. 곧바로 미 국방부는 앤트로픽을 국가안보 ‘공급망 위험’ 기업으로 지정했다. 미 정부의 ‘공급망 위험’ 기업 지정은 지금까지 적성국의 기업에나 적용되어온 조처로, 미국 기업이 지정된 것은 앤트로픽이 처음이다.
이에 앤트로픽은 미 연방법원 두 곳에 소송을 제기했다. 3월 초 1심인 샌프란시스코 연방법원은 정부의 클로드 사용 금지 집행을 막는 앤트로픽의 가처분 신청을 받아들였으나 4월 초 워싱턴D.C. 항소법원은 국방부 블랙리스트 지정을 정지해달라는 앤트로픽의 신청을 기각했다. 미 국방부는 앤트로픽과의 협상이 결렬된 직후 오픈AI와 별도 계약을 체결했다.
이번 사건은 정부와 기업 간의 단순한 계약 분쟁과는 차원이 다르다. 기술기업이 자사 기술에 대한 자율규제를 어느 선까지 가져갈 수 있는지를 묻는다. 또한 인간 통제를 벗어나 스스로 목표물을 선택·공격하는 AI 무기체계에 대한 통제를 민간이 주도할 수 있는지의 문제이기도 하다. 우크라이나와 이란에서 진행 중인 전쟁에서 이미 AI가 활용되고 있는 상황에서 관련 기술의 사용을 AI 개발기업과 전쟁 당사국 중 누가 통제할 것인가에 대한 복잡하고 어려운 문제이다.
민간기업이 개발해 운영하는 기술을 정부가 안보나 공공 안전을 위해 활용하는 경우, 기술기업의 동의와 허용은 어떠한 절차를 거쳐서 어떻게 이뤄질 수 있을까? 오래된 논의답게 주요한 사례들이 있고, 앞선 사례들은 정부와 기술기업이 취할 수 있는 태도가 가져올 결과를 알려준다. 기존 사례들을 통해 쟁점을 살펴본다.
#사례1. MIT 링컨랩 : 군사 목적의 대학 연구는 용납될 수 있는가?
미국의 대표적인 공과대학 매사추세츠공대(MIT)는 미국의 핵심적 군사 기술을 개발하는 전략연구소인 링컨연구소를 운영하고 있다. 1951년 미 공군의 요청으로 설립된 MIT 링컨연구소는 미-소 냉전 시대의 산물이다. 링컨연구소는 핵 공격에 대비한 방공 시스템(SAGE) 개발을 비롯해 레이더, 미사일 방어, 위성통신, 탄도미사일 조기경보 시스템 등 핵심 군사 기술의 산실로 자리 잡았다.
설립 초기 MIT 총장은 “연구소가 국가 이익에 기여해야 한다”고 강조했지만, 1960년대 후반 미국 내 베트남전 반대 여론이 커지며 상황이 변했다. 반전 여론이 들끓는 가운데 MIT 학생과 교수들은 링컨연구소가 국방부의 비밀 군사 연구를 수행한다는 사실, 특히 무기체계 개발에 직접 관여한다는 점에 강하게 항의했다. 1969년 봄, 대학 구성원들은 “대학이 국가 안보에 기여할 수 있지만, 그것은 학문적 자유와 공개 탐구라는 원칙과 양립 가능해야 한다. 비밀 연구의 확대는 대학의 본질적 임무를 훼손한다”는 권고문을 채택했다.
결국 1973년 MIT는 모든 기밀 군사 연구를 보스턴 캠퍼스 외부의 핸스컴 공군기지 내 링컨연구소로 옮기기로 했다. 학생·교수들의 공간과 분리한 상태에서 군사 개발 연구를 유지한다는 점에서, 일종의 타협책이다. 링컨연구소는 여전히 MIT 산하에 남아 연간 수십억 달러의 국방부 예산을 받으며 미사일 방어, 사이버 안보, 감시·정찰 등 첨단 군사 기술을 개발한다.
MIT 링컨연구소 사례는 대학의 군사 목적 연구가 내부 반발로 완전히 차단되지 않는다는 걸 보여줬다. 대학 구성원들의 대대적 반발로 인해 물리적 구획선을 만들었지만, 본질은 크게 달라지지 않았다. 대학은 군사 목적 연구를 대학 캠퍼스와 거리를 둔 별도 공간에서 이뤄지도록 허용함으로써, 오히려 더 폐쇄적이 되는 방향으로 정부와 타협한 것이다.
#사례2. 구글, 메이븐 프로젝트 철수
2018년 초 미 국방부가 구글 클라우드와 협력해 드론 영상 AI 분석을 통한 목표물 자동 식별 등 군사 목적의 사업을 추진하는 사실이 알려지면서 구글 직원들의 대대적 반발이 일어났다. “구글은 전쟁 사업에 관여해서는 안 된다”며 수천 명이 넘는 직원들이 청원서에 서명하고 핵심 엔지니어 십수 명이 회사에 반발해 퇴사했다.
구글은 직원들의 유례없는 대대적 반발에 밀려 2018년 6월, “메이븐 프로젝트 계약을 포기한다”고 발표했다. 구글은 국방부와의 협업을 포기했지만, 메이븐 프로젝트는 사라지지 않았다. 아마존·마이크로소프트 등이 구글을 대신해 국방부와 계약을 맺었기 때문이다.
그럼에도 메이븐 프로젝트 사태는 의미 있는 결과로 이어졌다. 메이븐 사태가 구글로 하여금 회사 차원의 AI 원칙을 수립하도록 만드는 계기가 됐기 때문이다. 2018년 6월, 구글은 ‘AI 원칙’을 발표해 “무기와 감시 기술, 국제법·인권법을 위배하는 개발을 하지 않겠다”고 선언했다. 미 국방부도 이 사태를 계기로 ‘AI 윤리 가이드라인’을 마련했다. 충돌을 계기로 기업과 정부에서 향후 유사한 혼란을 예방하기 위한 가이드라인을 만든 것이다.
하지만 메이븐 사태는 기업 자율규제의 한계도 드러냈다. 한 기업이 윤리적 이유로 계약을 포기하고 거부한다고 해도, 정부의 정책 방향을 막기 힘들다는 점이다. 다른 기업이 계약을 대신한다는 걸 확인했다. 기업의 자율규제와 내부 반발이 있다고 해서 기술의 군사적 활용 자체를 막기 어렵다는 사실이다.
#사례3. 애플의 FBI 아이폰 잠금 해제 요구 거부
테러 수사를 위해 테러범이 사용한 스마트폰의 데이터에 대한 접근권을 놓고 애플과 미 정부가 대립한 사안도 기술 윤리와 관련해 뜨거운 논의를 불렀다.
2016년 초 미국 연방수사국(FBI)는 테러범 수사 과정에서 애플에 대해 아이폰 잠금해제를 요구했으나 거부당했다. FBI는 사살된 테러범의 스마트폰(아이폰5c)을 확보했으나, 기기가 암호로 잠겨 있어 내부 데이터에 접근할 수 없었다. FBI는 법원으로부터 애플에 대해 ‘비밀번호 입력 시도 횟수 제한’ ‘데이터 자동삭제 기능’을 무력화할 수 있는 시스템(일종의 운영체제)을 개발해 설치해 달라는 명령을 받아내, 애플에 요청했다. 당시 애플의 최고경영자 팀 쿡은 “정부의 요구는 모든 아이폰의 보안을 위협하는 뒷문을 만드는 것과 같다”며 공개적으로 거부했다. 어느 쪽의 승리로 귀결될 것인지 결과가 주목되는 사안이었지만, 결론 없이 미봉책으로 마무리됐다. 양쪽의 법정 공방이 격화되던 중, FBI는 2016년 3월 말 “애플의 도움 없이 제3의 전문 업체를 통해 아이폰 잠금 해제에 성공했다”고 발표하며 애플을 상대로 한 소송을 취하했다. 소송 취하로 인해 이용자 데이터를 놓고 국가 권력과 기업이 대립할 경우에 적용될 ‘공식 판례’가 만들어지지 못했다.
하지만 아이폰 잠금 해제 충돌은 의미 있는 결과를 가져왔다. 이용자 데이터 보호를 우선시하는 권리의식과 보안 기술의 중요성이다. 테러범일지라도 이용자의 스마트폰 데이터는 당사자의 동의 없이 접근할 수 없다는 사회적 공감대가 형성됐고, 이를 위한 종단간 암호화 기술이 확산됐다. 또한 기업이 이용자 데이터를 보호하기 위해 정부와 맞설 수 있다는 ‘디지털 주권’ 개념이 강화되었고, 애플은 이를 브랜드 가치로 적극 활용했다.
범용기술 AI가 군사용으로 쓰일 때의 문제
앤트로픽-국방부 갈등은 과학기술의 군사적 활용을 통제하려는 행위가 AI시대에 어떤 의미를 갖는지에 대한 질문을 제기한다.
AI의 고유한 기술적 특성은 군사 목적의 활용을 놓고 국가와 기업 간에 벌어져 온 논의로 풀 수 없는 새로운 문제를 불러온다.
무엇보다 AI 기술은 범용 기술이라는 특징으로 인해, 군사·민간 용도를 물리적으로 분리하는 일이 근본적으로 어렵다. 미사일, 화학무기, 핵 기술 같은 군사 기술과 다른 점이다. 클로드의 경우 민간에서 다양한 업무와 일상생활에 사용 중인 기술이지만, 국가와 군대가 공격 목표 선정, 자율살상무기, 시민 대상 대규모 감시 등의 용도로도 활용할 수 있다. 이미 범용화되어 널리 활용되는 AI 기술을 특정 용도로의 사용만 제한하는 것은 거의 불가능하다.
또한 핵무기나 미사일처럼 첨단 군사 기술은 파괴력이 크기 때문에 안정성과 신뢰성을 확인하고 보증한 뒤에 전력화한다. 하지만 AI 기술은 빠르게 발달하며 계속해서 모델이 변화하기 때문에 안정성과 신뢰성을 담보하기 어려운 게 특징이다. 또한 심화신경망과 딥러닝 기반의 생성형 AI는 그 결과가 아무리 효율적이어도 작동 논리와 구조를 알 수 없는 ‘설명 불가능 기술’의 특징을 지닌다.
이러한 AI의 기술적 특징을 무시하고 기술 윤리와 법적 가이드라인을 AI에 적용하게 되면 현실과 불일치 하는 규제 공백이 발생한다. 앤트로픽처럼 AI 기업 스스로 윤리 기준을 제정하고 준수하는 자율규제 방식이 대안으로 제시되어 온 배경이다.
그런데, 국가 안보와 직결되는 군사 기술을 기술기업이 주도하는 자율규제를 통해 통제하는 방식은 절차적 정당성과 실효성 측면에서 심각한 한계를 갖는다. 민주주의 체제에서 기술의 군사 활용을 통제하는 권한은 의회와 행정부 등 선출된 권력에 주어져 있었다. 즉, 민주적 통제로 작동했다. 그런데 앤트로픽이 핵심 군사 기술이 된 AI에 대해 기업 내부의 기준(헌법)으로 자율규제를 하겠다는 시도는 거대 권력을 민주적 통제 아래 두어야 한다는 민주주의 원칙에 어긋난다. 기업은 매우 다양하고, 본질적으로 이윤 추구의 민간 조직일뿐 민주주의적 위임을 받은 공적 기구가 아니다.
앤트로픽-국방부 대립으로 드러난 사실은 AI 기술 군사 목적 활용이 이미 민주적 통제를 벗어난 상태로 이뤄지고 있다는 점이다. 앤트로픽 사태에서 확인되는 것처럼 AI 군사 활용 원칙은 행정부와 개별 기업 간에 작성되며, 공개되지도 않고 의회 심의를 거치지도 않는다.
안보 기술’ 자율규제 시도가 남긴 것은?
그렇다면 살펴본 MIT 학생-교수들의 무기 개발 반발, 애플의 FBI 요청 거부, 메이븐 사태 때 반발한 구글 엔지니어들, 앤트로픽의 국방부 요청 거부 등 기업과 대학 등 민간의 자율적 규제 시도는 실패했는가? 결과적으로 국가는 우회로를 통해 의도한 방향으로 기술 활용 목적을 지속했다는 점에서 그렇다고 볼 수 있다. 국가 안보 앞에서 자율규제의 한계는 명확하다.
그러나 다른 시각에서 보면, 이러한 민간의 시도는 규범을 만들고, 공론장을 형성하며 대안을 논의하는 데 기여했다. 민간의 자율규제 시도가 국가의 기술 사용 방향을 완전히 돌리지는 못했지만, 규범의 공간을 만들고 논의를 촉발하는 역할을 했다.
기업의 자율규제는 불완전하지만 유용한 수단이다. 그러나 그것만으로는 충분하지 않다. 정보공개와 접근권, 의회의 입법, 국제 조약, 그리고 공론장에서의 이해관계자들이 참여하는 논의가 필요하다. AI의 군사 활용에 관한 결정은 기업의 회의실이나 비밀 계약서 안에서만 이루어져서는 안 된다. 그것은 시민이 참여하고, 의회가 심의하며, 국제 사회가 협력하는 공개적 과정이어야 한다.

다음 글
국가는 인터넷을 어디까지 규율해야 할까…자율규제시스템에 거는 기대
온라인 혐오발언의 규율에 관한 유럽의 행동기준 및 KISO 정책규정에 대하여
통신비밀보호법 개선의 필요성
미국정부의 감시 및 검열요청에 대한 기업들의 대응
트럼프 행정부의 인공지능 정책 어디로 가나?
유튜브 뒷광고 문제, 어떻게 풀 것인가
제18대 국회의 인터넷 규제 관련 법률안 평가와 주요 쟁점
인터넷방송 플랫폼 서비스 규제방안에 대한 고찰 -사업자‧기업‧BJ의 사회적 책무 등 현황 및 개선방안