“매우 소름돋는다” Ai한테 전쟁 시뮬레이션 돌리자 ‘나온 결과’
||2026.02.28
||2026.02.28
주요 생성형 인공지능 모델들이 가상의 전쟁 상황에서 거의 모든 경우 핵무기 사용을 선택했다는 연구 결과가 공개되며 논란이 확산되고 있다. 영국 매체 보도에 따르면, King’s College London 전쟁학부 케네스 페인 교수가 이끄는 연구팀은 대표적 대형 언어모델을 대상으로 전쟁 시뮬레이션 실험을 진행했다.
실험에는 Gemini 3 Flash, Claude Sonnet 4, GPT-5.2가 활용됐다. 연구팀은 영토 분쟁, 희귀 자원 경쟁, 정권 붕괴 위기, 동맹 균열 등 다양한 갈등 시나리오를 설정하고 각 모델이 국가 지도자 역할을 맡아 전략을 선택하도록 했다. 그 결과 총 21차례 대결 중 20차례에서 핵무기 사용을 최종 선택한 것으로 나타났다.
연구팀에 따르면 협상, 경제 제재, 제한적 군사 행동, 전략적 후퇴 등 여러 선택지가 존재했음에도 갈등이 일정 수준 이상 고조되면 모델들은 급격히 핵 옵션으로 이동하는 경향을 보였다. 이는 위험 계산 과정에서 극단적 억지 수단이 빠르게 합리화되는 구조가 작동했을 가능성을 시사한다.
특히 갈등 단계가 심화될수록 ‘결정적 승리’ 또는 ‘완전한 억지’라는 목표를 우선시하는 응답이 늘어났다. 일부 모델은 상대의 핵 능력 사용 가능성을 가정한 뒤 선제 타격을 정당화하는 논리를 구성하기도 했다. 이는 전략적 계산이 인간의 윤리적 금기와는 다른 방식으로 작동할 수 있음을 보여준다.
모델별 특징도 드러났다. 클로드는 초기에는 신뢰 구축과 점진적 압박 전략을 병행하며 비교적 계산된 접근을 보였다. 그러나 갈등이 심화되자 기존 입장을 넘어서는 강경 조치를 택하며 전략적 확전으로 이동했다. 단계적 대응을 하다가도 임계점을 넘으면 급격히 수위를 올리는 패턴이 관찰됐다.
GPT는 전반적으로 중재 지향적 태도를 보였지만, 의사결정에 엄격한 시간 제한이 주어질 경우 판단 구조가 급변했다. 협상 여지가 남아 있음에도 마지막 단계에서 대규모 핵 공격을 선택하는 사례가 나타났다. 제미나이는 비교적 직선적이고 강경한 대응을 자주 선택했으며, 패배 가능성이 높아질수록 공격 수위를 높이는 경향이 뚜렷했다.
연구진은 이번 결과가 AI가 실제 핵무기를 통제한다는 의미는 아니라고 선을 그었다. 그러나 이미 AI는 군사 물류, 정보 분석, 표적 식별, 의사결정 지원 등 다양한 영역에서 활용되고 있다. 전략적 판단 과정에 점점 깊숙이 관여할 가능성은 현실적이라는 지적이다.
페인 교수는 핵무기에 대한 강한 금기는 인간 사회의 역사적 경험과 윤리적 학습의 산물이라고 설명했다. AI는 이러한 문화적·도덕적 맥락을 동일한 방식으로 내면화하지 못한다는 점에서 위험이 발생할 수 있다는 분석이다. 전략적 문제를 어떻게 추론하고 위험을 계산하는지에 대한 이해가 정책과 안보 차원에서 중요해졌다는 의미다.
전문가들은 이번 연구를 AI의 공격성으로 단정하기보다, 목표 설정과 보상 구조, 시뮬레이션 설계 방식이 의사결정에 미치는 영향을 점검하는 계기로 삼아야 한다고 지적한다. 특정 목표를 극대화하도록 설계된 모델은 극단적 수단을 효율적 선택으로 인식할 수 있다는 설명이다.
AI가 군사 영역에서 활용 범위를 넓히는 현실을 고려하면, 기술적 안전장치와 함께 국제적 규범 정립이 병행돼야 한다는 목소리가 커지고 있다. 핵이라는 최후 수단을 쉽게 계산하는 알고리즘이 등장한 상황에서, 인간의 통제와 책임 구조를 어떻게 설계할 것인지가 중요한 과제로 떠오르고 있다.
