인공지능, 실제 전쟁터에서 무엇을 할까 – 앤스로픽과 국방부 갈등의 교훈
안녕하세요, 여러분. 인공지능 기술이 발전함에 따라 우리의 일상에 깊숙이 자리 잡은 것은 물론, 이제 국가 안보와 전쟁의 최전선에까지 진출하기 시작한 상황입니다. 특히 최근 미국 테크 미디어 더버지가 보도한 소식은 이 변화를 극명하게 보여줍니다. 미국의 국방 장관 피트 헤그셋이 앤스로픽 (Anthropic) 기업을 공급망 리스크로 규정하며 갈등을 빚는 동시에, 미국이 이란을 대상으로 한 군사 작전을 전개하는 과정에서 인공지능이 어떻게 활용되었는지에 대한 충격적인 진실이 드러났기 때문입니다.
이번 보도는 단순한 기업 간 계약 분쟁을 넘어, 인공지능이 실제 군사 작전 도구로써 어떻게 작동하는지를 보여줍니다. 앤스로픽이 개발한 클로드 (Claude) 모델은 기밀 정보를 처리할 자격을 얻고 국방 기술에 깊이 통합되었는데, 월스트리트 잡보에서는 이란 타격 작전 과정에서 AI 가 표적 식별과 상황 분석에 사용되었음을 보도했습니다. 이는 인간을 대신하거나 인간의 판단을 보조하는 수준을 넘어, 알고리즘이 직접적으로 군사적 판단에 개입함을 시사합니다.
또한 전문가들은 이 전쟁이 단순한 물리적 파괴를 넘어, 두 개의 AI 시스템이 서로 데이터를 주고받으며 최적화된 공격을 펼치는 ‘양측 자동화 전쟁’의 시대로 진입하고 있음을 경고합니다. 해마자 차우드리라는 미래학자의 분석에 따르면, 이번 작전은 핵 억제력이라는 오랜 안보 지렛대가 붕괴될 수 있다는 위험을 내포하고 있습니다. 적대국들이 자신의 대륙간탄도미사일 (ICBM) 과 선제 사격 능력이 AI 에 의해 추적 가능해지고 있다면, 이는 핵 무력 평형을 무너뜨릴 수 있습니다. 이렇게 되면 핵전쟁은 피할 수 없는 방향으로 치닫게 될 수 있습니다.
비밀리에 운영되는 인터넷 차단 상황에서도 미국의 정밀 타격이 가능했다는 점은 AI 의 정보 처리 능력을 보여줍니다. 이란은 전쟁 발발 직전 인터넷 연결을 거의 차단했으나, 미국의 지시한 타격이 매우 정확하게 이루어졌다는 점은 알고리즘이 복잡한 정보를 처리하고 실행하는 데 있어 인간의 한계를 극복했음을 의미합니다.
반면 오픈아이 (OpenAI) 의 국방부 계약 조건은 공개된 바에 따르면, 사적인 정보의 통제 없이 모니터링하는 것을 금지하는 조항이 포함되어 있다고 합니다. 이는 기업이 정부의 군비 경쟁에 완전히 복속되지 않으려는 모습을 보여주지만, 여전히 법적인 기준이 모호하다는 문제를 제기합니다. 미국 정부는 앤스로픽의 경우 공급망 리스크로 판단했으나, 오픈아이는 보안 관련 제약을 통해 일부 조항을 준수하려는 노력을 하고 있습니다. 하지만 이는 완전히 만족할 만한 해법이 아님도 드러냅니다.
결국 오늘날 AI 는 문화계와 정치적 쟁점의 영역을 넘어, 실제 생명을 위협하는 무기에까지 사용되고 있다는 사실을 우리는 인지해야 합니다. 한국을 비롯한 전 세계에서도 AI 무기화 규제의 중요성이 증대될 것으로 보입니다. 기술의 속도에 비해 법리와 윤리가 뒤처지는 지금, 우리도 AI 의 전쟁적 활용에 대해 깊은 성찰이 필요합니다. 더버지의 이 기사처럼, AI 는 이제 단순한 도구가 아니라, 인간의 의사결정과 안보 체계를 재정의하는 강력한 주체로 변모하고 있습니다. 따라서 우리는 기술 발전의 양날이 될 수 있는 위험을 인지하고, 적절한 제도적 장치를 마련하는 데 주력해야 할 것입니다. 또한 기업들도 윤리 가이드라인을 준수하며 개발하는 모습을 보여야 하며, 국가 차원에서도 AI 기술의 군사적 활용에 대한 명확한 기준이 마련되어야 합니다. 감사합니다.
이 글은 The Verge의 기사를 바탕으로 작성되었습니다.
