Anthropic, 미국 국방부 협력 실패 리스크와 새로운 미래
미국의 국방부와 인공지능 기술 기업 사이의 긴장 관계가 다시 한번 표면화되며 주목받고 있습니다. 최근 테크 뉴스 매체인 더 버지가 공개한 자료가 알려주듯, Anthropic 이 미국 국방부와 다시 협상 테이블로 복귀하여 기존의 협력 관계를挽救하려는 마지막 노력을 펼치고 있습니다. 그러나 몇 주간의 공개적인 감정싸움과 이견으로 인해 정부 내에서의 신뢰는 무너져 버리는 상황입니다. 이 협상이 무산될 경우, Anthropic 은 국방 업무에 참여하기 위한 공급망 리스크로 분류될 우려가 있습니다. 이는 관련 기업들이 국방 사업을 계속하기 위해서는 Anthropic 의 클로드 모델을 포기하고 다른 솔루션을 사용할 수밖에 없게 만드는 결과를 초래합니다.
이번 갈등의 핵심은 크게 기술적 안전장치와 정치적 이해관계 두 가지 요인으로 나뉘어 있습니다. 기술적 측면에서 미국 국방부는 Anthropic 의 AI 모델인 클로드 에 대한 무제한적인 접근 권한을 요구했습니다. 이는 국방부가 기업 기술의 분석을 통해 얻은 모든 정보와 데이터를 자유롭게 사용할 수 있게 하는 것을 의미합니다. 하지만 Anthropic 은 이에 거절을 표하며, 특히 미국 시민들의 대량 감시를 금지하고, 인간 감독 없이 살상을 결정하는 무인 무기 시스템을 개발하는 것에는 절대 반대한다는 입장을 고수했습니다. 국방부는 ‘어떤 것이나 합법적 사용’을 주장했지만, 이는 Anthropic 이 설정한 두 가지 핵심 안전 선을 위반할 가능성을 내포하고 있어 회사 내부에서는 매우 큰 우려가 나왔습니다.
또한 정치적 요인도 협상 실패를 가속화했습니다. 다니오 아마데이 는 CEO 이자 Anthropic 의 수장이자 최근 내부 직원들에게 보낸 비밀 메모를 통해 갈등의 진짜 주된 이유를 솔직하게 밝혔습니다. 그는 우리가 트럼프 대통령에게 기부하거나, 그를 찬양하는 독재자 스타일의 행위를 하지 않았기 때문에 관계가 악화되었다고 말했습니다. 이는 실리콘밸리 내에서 성공하려면 미국 대통령에게 기부를 하거나 지지를 얻어야 한다는 암묵적 규칙과 대조적입니다. 오픈AI 의 샘 알트만은 트럼프 행정부 복귀 이후부터 정부와 관계를 적극적으로 개선해 왔고, 그рег 브록만 도 주요 기부자 중 한 명이 되었습니다. 반면 Anthropic 은 정치적 중립과 윤리 독립성을 주장하며 거리를 유지했습니다. 이 결과로 국방부 관계자들은 아마데이를 ‘거짓말쟁이’이자 ‘하나님의 자존감’이라고 공개적으로 비판했습니다.
leaking 된 메모를 보면 협상 과정에서 국방부가 Anthropic 의 조건을 거의 받아들일 뻔했다는 내용이 포착됩니다. 계약서 특정 조항인 ‘대량 취득 데이터 분석’에 대한 문구를 삭제했다면 협력이 가능했다는 것입니다. 하지만 Anthropic 측에서는 이를 매우 의심스럽게 생각했습니다. 단순한 형식적인 수정이 아님을 느꼈기 때문입니다. 이 같은 세부 사항은 협상 테이블에서 양측이 얼마나 진지하게 대화하려 했는지를 보여주는 증거이기도 합니다. 또한, 최근 NSA 가 Anthropic 의 다른 모델인 Mythos 에도 접근 권한을 가진 상황에서 공급망 리스크로 분류되는 것은 내부 기준이 혼재되어 있다는 의미도 있습니다.
이제 이 사건은 단순한 기업 간의 문제에서 벗어나 국가 안보와 기술 발전의 딜레마를 어떻게 해결해야 하는지를 시사합니다. Anthropic 의 경우 현재 클로드는 보안 인증을 받은 유일한 AI 시스템으로, 미국의 군사 작전이나 정보 분석 등 여러 분야에서 사용되고 있습니다. 특히 베네수엘라 공작 작전과 이란 공중 타격에도 사용된 바 있어, 이것이 트럼프 대통령으로 하여금 클로드 를 금지하는 명령을 철회하게 했던 배경이 되었습니다. 협상이 실패하는 경우, 미국의 국방 생태계 전체가 흔들릴 수 있습니다. 이는 미국 기술 기업들이 향후 어떤 윤리적 기준을 지켜야 하며, 정부 협상에 얼마나 유연하게 대처할지 결정해야 하는 시점을 의미합니다.
한국을 포함한 글로벌 기술 기업들에게 이번 사례는 큰 시사점을 줍니다. 기술의 발전 속도와 국가 안보 요구 사이에서 어떻게 균형을 잡아야 하는가에 대한 고민은 미국에만 국한된 것이 아니기 때문입니다. 특히 AI 윤리, 데이터 프라이버시, 그리고 자동화 무기 시스템 사용에 대한 논쟁은 전 세계적으로 공유된 이슈입니다. 공급망 리스크 개념 자체가 어떻게 정의되고 적용될지에 대한 기준이 명확하지 않다면, 기업들은 정부 요구와 기업 윤리 사이에서 더 큰 부담을 견뎌야 합니다. 이번 Anthropic 과 국방부의 갈등을 통해 기업과 정부가 어떻게 협력하면서도 안전성을 지켜야 하는지, 또 기술의 발전 속도에 윤리적 기준이 어떻게 따라잡아야 하는지를 생각해 볼 수 있는 좋은 기회가 될 것입니다. 향후 이 분야에서의 동향은 한국 IT 산업에도 큰 영향을 미칠 전망입니다.
이 글은 The Verge의 기사를 바탕으로 작성되었습니다.
