[AI 전쟁 운영체제 2편] 판단의 자동화: 식민 통치가 축적한 데이터 위에 구축한 킬체인… (⏰17분)
🎡 연재를 시작하며
2025년 7월, 나는 연구계획서를 제출했다. 인공지능이 전쟁과 폭력의 구조를 어떻게 바꾸고 있는지를 연구하겠다는 계획이었다. 10월, 연구지원을 받아 평화월딩연구소 안에 ‘AI 제노사이드 세미나팀’을 꾸렸다. 사회학, 역사학, 과학기술정책학의 관점과 시민운동의 현장 경험을 가진 연구자와 활동가로 구성된 팀이었다. 우리는 가자지구의 AI 표적 시스템, 우크라이나의 드론과 데이터 플랫폼, 팔란티어와 안두릴 같은 미국 방산-테크 기업들의 기술을 추적하기 시작했다.
공부가 깊어질수록 하나의 문제에 부딪혔다. 이 시스템들을 각각 분석하는 것으로는 현상의 본질이 포착되지 않았다. 문제는 개별 시스템이 아니라, 이것들이 체인으로 연결되어 하나의 운영체제를 구성할 때 비로소 전쟁 수행 구조 자체가 바뀐다는 것이었다. 12월 16일, 연구노트에서 이 구조를 ‘AI 전쟁 운영체제(AI War OS)’로 명명했다.
계획서 제출로부터 8개월, 세미나 시작으로부터 5개월. 그 사이에 베네수엘라 마두로 작전(2026.1), 이란 전쟁 개시(2026.2), 미국 전쟁부와 앤트로픽의 갈등과 클로드 코드 소스코드 유출(2026.3)이 연이어 발생하면서, 세미나에서 공부한 구조가 현실에서 빠르게 확인되고 있다. 이 연재는 ‘AI 전쟁 운영체제(AI War OS)’가 어떤 역사적 단계를 거쳐 형성되었는지를 추적하고, 동시에 이 과정을 분석하기 위해 우리가 어떤 개념을 만들고 다듬어갔는지를 기록한다.
가자에서 걸려온 전화
2024년 4월, 이스라엘 매체 +972 매거진과 로컬 콜(Local Call)이 공동 취재한 보고서가 공개되었다. 유닛 8200(Unit 8200, 이하 8200부대) 등 이스라엘군 정보부대에서 복무한 정보장교 6명의 익명 증언을 담은 이 보고서에서, 한 장교는 AI 표적 시스템 ‘라벤더’의 운용 경험을 이렇게 말했다.
“나는 승인 도장 역할 외에 인간으로서 아무런 부가가치가 없었다.”
이스라엘 8200부대 정보장교. 2024.
이 한 마디가 제2편의 출발점이다.

제1편에서 팔란티어의 온톨로지가 OODA 루프의 관찰(Observe)을 체계화한 것이 첫 번째 전환이었음을 보았다. 흩어진 데이터를 하나의 구조로 통합하여 인간 분석관의 병목을 제거한 것. 그러나 온톨로지가 아무리 정교해도, 그 위에서 “이 사람이 표적인가 아닌가”를 결정하는 것은 여전히 인간의 몫이었다. 데이터의 구조화는 달성했지만 판단의 자동화는 아니었다.
두 번째 전환은 그 판단과 결정 — OODA 루프의 판단(Orient)과 결정(Decide) — 이 자동화되는 과정이다. 이 전환이 일어난 곳이 팔레스타인 가자지구다. 그리고 이 전환의 물질적 기반은, 수십 년에 걸쳐 식민 통치의 시간이 만들어낸 데이터였다.
이 편에서는 그 데이터가 어떻게 축적되었는지를 보고, 그 위에 네 개의 AI 시스템이 어떻게 하나의 킬체인으로 조립되었는지를 추적하고, 그 킬체인이 LLM과 결합하여 운영체제로 완성된 뒤 우크라이나·베네수엘라·이란이라는 세 전장을 거치며 표준화되는 과정까지를 다룬다.
데이터는 하루아침에 만들어지지 않는다
팔란티어의 온톨로지가 아무리 정교해도, 그 위에 올라갈 데이터가 없으면 빈 구조에 불과하다. 이스라엘이 가자지구와 서안지구에서 수십 년간 축적한 팔레스타인 감시 데이터는, 이후 AI 표적 시스템들이 작동할 수 있었던 물질적 기반이다. 검문소를 통과할 때마다 찍힌 얼굴 사진, 스마트폰에 심어진 스파이웨어가 빼낸 통화 기록, 드론이 상공에서 촬영한 이동 패턴, 이 모든 것이 수십 년에 걸쳐 데이터베이스에 쌓였다. 데이터는 하루아침에 만들어지지 않는다. 식민 통치의 시간이 데이터의 두께를 만든다.
이것이 가자와 다른 전장들의 결정적 차이다. 우크라이나에서는 전쟁이 시작된 이후 데이터가 수집되었다. 아프가니스탄에서 미군은 20년을 주둔했지만, 감시 체계가 전국적이지 않았고 데이터의 체계적 축적이 이루어지지 않았다. 가자에서는 전쟁이 시작되기 수십 년 전부터 데이터가 축적되었다.
봉쇄된 공간 안의 전체 인구를 대상으로, 출생부터 이동까지, 통화부터 가족 관계까지, 포괄적이고 지속적으로. 이 비대칭이 AI 표적 시스템의 정밀도와 가동 속도를 결정했다. AI는 데이터의 양과 질에 비례하여 작동한다. 가자의 AI 시스템이 그토록 “효율적”으로 작동할 수 있었던 것은 기술이 뛰어나서가 아니라, 식민 통치가 오래되었기 때문이다.

감시 인프라의 계보 — 검문소에서 페가수스까지
이스라엘의 팔레스타인 감시 체계는 여러 층위로 구축되어 있다.
가장 물리적인 층위는 검문소(checkpoint)다. 서안지구의 분리장벽을 따라 배치된 검문소에서 팔레스타인인들은 매일 신분증을 제시하고, 사진을 찍히고, 이동 목적을 심문당한다. 이 과정에서 수집되는 신원 정보, 이동 기록, 대면 심문 내용은 데이터베이스에 축적된다. 하나의 검문소 통과가 하나의 데이터 포인트가 된다. 수십 년간 수천만 번의 통과가 쌓이면, 한 인구 집단의 이동 패턴이 완성된다.
2020년부터 이스라엘군은 이 검문소 체계를 디지털화했다. ‘울프 팩(Wolf Pack)’으로 불리는 감시 기술 체계가 점령지 전역에 배치되었다. 블루 울프(Blue Wolf)는 병사들이 스마트폰으로 팔레스타인인들의 얼굴을 촬영하여 생체 정보 데이터베이스를 구축하는 앱이다. 워싱턴 포스트 보도에 따르면, 전직 병사는 이것을 “팔레스타인 사람들의 페이스북”이라 묘사했다. 병사들 사이에서는 주간 촬영 수에 따라 점수를 매기고 보상을 제공하는 게임화(gamification)까지 이루어졌다.
레드 울프(Red Wolf)는 검문소의 CCTV 안면인식 시스템으로, 팔레스타인 사람이 통과할 때 자동으로 신원을 조회한다. 화면에 녹색이면 통과, 노란색이면 구금, 빨간색이면 즉시 체포. 이 색깔 분류 자체가 이미 하나의 알고리즘적 판단이다. 인간 병사는 색깔을 집행할 뿐이다.

디지털 감시 층위에서는 NSO 그룹의 페가수스(Pegasus)가 핵심이다. NSO 그룹은 8200부대 출신들이 창업한 이스라엘의 감시 기술 기업으로, 아이폰과 안드로이드 기기에 원격으로 설치되어 사진, 메시지, 이메일을 추출하고 통화를 녹음하는 군사급 스파이웨어 페가수스를 개발했다. 메타와 애플의 소송, 미국 상무부 블랙리스트 지정 등 국제적 제재를 받았다.
이 기술은 팔레스타인 감시용으로 개발·시험된 뒤, 사우디아라비아, 헝가리, 멕시코 등 각국 정부에 수출되었다. 사우디 언론인 자말 카슈끄지 살해 사건에서도 동선 추적에 사용되어 국제적 파장을 일으켰다. 팔레스타인은 실험실이었고, 세계는 시장이었다.
가자지구에서는 이 모든 것이 극단화된다. 봉쇄된 365km² 안에 200만 명이 밀집한 공간에서 드론이 상공을 감시하고, 해상에서 군함이 통신을 감청하며, 출입구에서 모든 이동이 기록된다. 가자에는 두 개의 출입 통제 지점만 있다. 이스라엘이 관리하는 에레즈 검문소와 이집트 측 라파 국경. 365km²의 공간에 출입구가 두 개뿐이라는 것은, 모든 물리적 이동이 완전히 기록 가능하다는 뜻이다.
팔레스타인인들이 “타나나(tannaana)”라 부르는 감시 드론의 윙윙거리는 소리는 가자의 일상적 배경음이다. 아이들은 이 소리를 들으며 잠들고, 이 소리를 들으며 학교에 간다. 앰네스티 인터내셔널의 2022년 보고서 제목이 이 상황을 요약한다. “자동화된 아파르트헤이트(Automated Apartheid).”
이 모든 감시 체계가 수십 년간 축적한 데이터 — 신원, 생체 정보, 이동 패턴, 통화 기록, 소셜미디어 활동, 가족 관계 — 가 이후 AI 표적 시스템의 학습 데이터가 된다. 누가 “위험”으로 분류되었는가의 역사적 패턴이 학습 데이터를 구성하고, 알고리즘은 그 패턴을 재생산한다. 오염이라는 단어는 여기서 은유가 아니다. 식민 통치의 감시 체계가 데이터 안에 이미 내장되어 있고, 알고리즘은 그 범주를 학습한다.
8200부대 — “AI 공장”으로의 전환
이 감시 인프라의 중심이 8200부대다. 1952년 창설된 이스라엘군의 통신·신호 감청 전담 정보부대로, 미국 국가안보국(NSA)에 비견되는 규모와 역량을 갖추고 있다.
8200부대는 군사 조직이면서 동시에 이스라엘 테크 산업의 인재 파이프라인이다. NSO 그룹, 체크포인트(Check Point), 사이버리즌(Cybereason) 등 이스라엘의 대표적 사이버보안·감시 기업들이 8200부대 출신들에 의해 창업되었다. 군사 감시 기술이 민간 감시 기술로, 다시 군사 기술로 순환하는 구조가 형성되어 있다. 기술은 경계를 넘어 흐르고, 그 경계는 군사와 민간 사이에 있지 않다.
전환점은 2020년이다. 요시 사리엘(Yossi Sariel)이 8200부대 사령관에 임명되면서 부대는 근본적으로 재편된다. 사리엘은 2021년 저서 『인간-기계 팀(The Human-Machine Team)』에서 인간 분석관을 “병목(bottleneck)”이라 불렀다. 인간이 데이터를 처리하는 속도가 전쟁의 속도를 따라가지 못한다는 진단이었다. 제1편에서 메이븐 프로젝트의 드루 쿠커가 진단한 것과 정확히 같은 문제 인식이다. 다만 사리엘은 그것을 수십 년간 축적된 감시 데이터 위에서 실행했다.

사리엘의 지휘 아래 아랍어 전문가가 감축되고, AI에 비판적인 지휘관이 해임되고, 데이터 마이닝에 집중하지 않는 부서가 해체되었다. 네바팀(Nevatim) 공군기지에 “표적 센터”가 신설되었고, 지휘관들은 이 재편을 “AI 공장(AI factories)”이라 불렀다. 이 명명 자체가 함의를 갖는다. 표적은 이제 발굴되거나 판단되는 것이 아니라 공장에서 생산되는 것이다. 군사 조직이 분석 기관에서 생산 기관으로 전환된 것이다.
아랍어 전문가가 감축된 자리를 AI가 채웠다는 사실은 단순한 효율화가 아니다. 아랍어 전문가가 수행하던 것은 언어의 맥락적 해석이다. “그 말이 그 상황에서 그 사람의 입에서 나왔을 때 무엇을 의미하는가”를 판단하는 작업이었다. 한 통화에서 “내일 가족을 데리러 가겠다”는 말이 일상적 약속인지 아니면 암호화된 지시인지를 판별하는 것은 맥락 없이는 불가능하다. AI가 이것을 대체할 때, 맥락은 통계적 패턴으로 환원된다. 특정 단어의 빈도, 특정 시간대의 통화, 특정 번호와의 접촉 횟수가 “위험”이라는 점수로 변환된다.
킬체인의 분업 — 네 개의 시스템
이 조직적 기반 위에서 개별 AI 표적 시스템들이 만들어졌다. 이 시스템들을 이해하는 핵심은 각각의 기능이 아니라, 이것들이 어떻게 연결되어 하나의 킬체인을 구성하는가이다.
1. 복음(Gospel, 하브소라)
건물과 인프라 표적을 생성하는 시스템이다. 2021년 5월 “성벽의 수호자” 작전에서 처음 실전 투입되어 하루 100개의 표적을 생성했다. 이전에는 인간 분석관이 가자에서 연간 50개의 표적을 생성하는 것이 한계였다. 복음은 하루 100개의 표적을 생성했다. 연간 50개에서 하루 100개로 — 이 숫자의 도약이 의미하는 것은 판단의 정교화가 아니다. 표적 생산의 산업화이다. “이 건물이 군사 인프라인가”를 결정하는 것이 인간의 고민에서 알고리즘의 출력으로 바뀐 것이다. 이스라엘군은 이 성과를 “탁월한 결과”라고 공식 발표했다. 복음은 더 이상 비밀이 아니었다. 공개적으로 자랑하는 전력이 되었다.
2. 라벤더(Lavender)
개인 표적을 식별하는 시스템이다. 감시 데이터를 처리하여 하마스 또는 팔레스타인 이슬람 지하드(PIJ)의 조직원일 가능성이 있는 개인을 식별하고, 각 사람에게 1점에서 100점까지의 위험 점수를 부여한다. +972 매거진 보도에 따르면, 라벤더의 오류율은 약 10%로 알려져 있다. 10명 중 1명은 “위험”으로 분류되었지만 실제로는 하마스와 무관한 민간인이라는 뜻이다. 그러나 이 오류율은 시스템의 “허용 가능한 수준”으로 취급되었다.
점수 산출에 어떤 변수가 어떤 가중치로 개입하는지는 운용자에게도 공개되지 않는다. 특정 번호로의 전화 빈도, 이동 반경, 종교 시설 방문 기록, 소셜미디어 연결망이 모두 숫자로 변환되어 하나의 점수에 합산된다. 이 사람이 왜 그 전화를 했는지, 왜 그 구역에 사는지의 맥락은 점수가 산출되는 순간 소멸한다.
3. 아빠는 어디에(Where’s Daddy)
라벤더가 표적으로 지정한 개인이 자신의 가족 거주지에 들어가는 순간을 추적하는 시스템이다. 시스템의 이름 자체가 설계 의도를 드러낸다. 표적이 가족과 함께 있을 때를 노리는 것이다. 전쟁법에서 민간인 보호는 핵심 원칙이다. 표적이 민간인 가족과 함께 있는 순간을 타격 적기로 설정하는 이 시스템의 이름은, 그 원칙이 어떻게 알고리즘 수준에서 전도되는지를 보여준다.

4. 화력 공장(Fire Factory)
타격 계획을 자동으로 수립하는 시스템이다. 표적, 항공기, 드론, 탄약 적재량, 우선순위를 종합하여 타격 일정을 제안한다. 어떤 무기가 어떤 시간에 어떤 각도로 투하될 때 목표 건물이 파괴되면서 인접 건물의 피해가 최소화되는지를 계산한다. 지휘관이 받는 것은 “이 표적을 이 시간에 이 무기로 타격하시겠습니까?”라는 질문이다. 이 질문이 도착하는 순간, 표적 선정, 무기 배정, 타이밍 결정은 이미 완료되어 있다.
이 네 시스템은 독립적으로 작동하지 않는다. 복음이 건물 표적을 생성하면, 라벤더가 그 건물과 연계된 개인들의 위험 점수를 갱신한다. 라벤더가 고위험 개인을 표적으로 분류하면, 아빠는 어디에가 그 개인의 위치를 추적한다. 위치가 확인되면 화력 공장이 타격 계획을 수립한다. 지휘관에게 도달하는 것은 모든 처리가 완료된 최종 결과물뿐이다. 복음이 왜 이 건물을 선택했는지, 라벤더가 왜 이 사람에게 85점을 부여했는지는 최종 결과물에 포함되지 않는다.
이 구조를 1편에서 상세하게 설명한 OODA 루프에 대입하면 이렇다. 복음과 감시 인프라가 관찰(Observe)을 담당한다. 라벤더가 판단(Orient)을 담당한다. 아빠는 어디에와 화력 공장이 결정(Decide)을 담당한다. 지휘관이 최종 버튼을 누르는 것이 실행(Act)이다. 인간이 담당하는 것은 마지막 버튼 하나뿐이다.
이것을 제1편에서 살펴본 첫 번째 전환과 비교하면, 차이가 분명해진다. 팔란티어의 온톨로지는 관찰(Observe)만을 체계화했다. 데이터를 구조화하되 판단은 인간에게 남겨두었다. 그러나 가자의 킬체인은 관찰에서 결정까지 세 단계를 자동화한다. 인간에게 남은 것은 실행(Act) — 그것도 20초짜리 승인 버튼이다. 이것이 두 번째 전환의 핵심이다.
“승인 도장” — 37,000명과 20초
2023년 10월 7일 하마스 기습 이후, 이 시스템들이 전면 가동되었다. +972 매거진과 로컬 콜의 2024년 4월 공동 심층 취재에 따르면, 이 기간 라벤더는 37,000명의 팔레스타인 남성을 표적으로 분류했다. 인간 운용자는 건당 약 20초로 표적을 “승인”했다.
20초. 이 시간 동안 인간이 할 수 있는 것은 무엇인가. 라벤더가 산출한 위험 점수를 확인하고, 이름과 주소를 읽고, 버튼을 누르는 것이다. 점수가 어떻게 산출되었는지, 어떤 데이터가 사용되었는지, 그 사람의 가족 구성이나 주변 민간인 현황을 검토하는 것은 20초 안에 불가능하다. 한 운용자의 증언에 따르면, 표적의 이름이 아랍어인지 확인하는 것이 검증의 전부였다. 여성 이름이 뜨면 시스템 오류로 판단하고 넘겼다. 그것이 20초 안에 할 수 있는 유일한 “인간적 판단”이었다.
이 구조의 귀결로, 저급 무장세력 1인당 민간인 15~20명의 사망이 “허용 가능한 부수적 피해(acceptable collateral damage)”로 사전 설정되었다. 이 수치는 지휘관의 판단이 아니라 시스템의 파라미터(사전에 설정된 허용 기준)로 입력된 것이다. “얼마나 많은 민간인 사망이 허용 가능한가”라는 도덕적·법적 결정이 하나의 파라미터로 처리된 것이다.
한 운용자는 이 과정을 이렇게 증언했다. “나는 승인 도장 역할 외에 인간으로서 아무런 부가가치가 없었다.” 도장. 이 비유가 정확하다. 도장은 인간의 판단을 표시하는 도구가 아니다. 결과를 공식적으로 기록하는 형식적 절차이다.
기존의 자율살상무기체계(LAWS) 논의는 ‘자율 무기가 독자적으로 결정하는가’에 초점을 맞춘다. 그러나 가자에서 벌어진 것은 그 프레임을 비껴간다. 시스템은 완전 자율이 아니다. 인간이 20초 버튼을 누른다. 그러나 그 인간은 “승인 도장”이다. 완전 자율도 아니고, 실질적 인간 통제도 아닌 이 중간 지대. 특정 인구 집단 전체를 알고리즘적으로 분류하고, 차등적 살상 허용 기준을 ‘사전 파라미터’로 설정하는 이 체계를 포착하기 위해 나는‘AI 제노사이드’라는 개념을 제안했다.


왜 제노사이드인가. 대량 살상 자체가 제노사이드를 구성하는 것이 아니다. 특정 인구 집단을 “그 집단이기 때문에” 체계적으로 분류하고, 그 분류에 기반하여 차별적 살상 기준을 적용하는 것이 제노사이드의 핵심이다. 라벤더가 가자의 팔레스타인 남성 전체를 대상으로 위험 점수를 부여하고, 저급 무장세력 1인당 민간인 15~20명의 사망을 “허용 가능”으로 설정하는 구조는, 바로 그 “집단 기반의 체계적 분류와 차별적 살상”이다. 이 개념은 제3편에서 더 자세히 다룬다.
규율해야 할 것은 특정 시스템이 아니라, 시스템들이 연결되어 인간 통제를 형식화하는 구조 자체다. 제1편에서 명명한 AI 전쟁 운영체제(AI War OS) 개념이 필요한 이유가 여기에 있다. 개별 시스템을 금지해도, 동일한 체인 구조를 가진 다른 플랫폼이 대체한다.
세 번째 전환 — LLM이 전쟁 운영체제를 완성하다
이스라엘의 AI 표적 시스템들이 판단과 결정을 자동화한 것이 두 번째 전환이라면, 세 번째 전환은 이 모든 것이 하나의 운영체제(OS)로 통합된 것이다. 이 전환의 기술적 계기는 대규모 언어모델(LLM)의 군사 시스템 통합이다.
두 번째 전환까지, 각각의 AI 시스템은 특정 목적을 위해 설계된 전용 도구였다. 복음은 건물 표적을 생성하고, 라벤더는 개인을 분류하고, 아빠는 어디에는 위치를 추적한다. 이것들은 같은 전장에서 동시에 운용되었지만, 기술적으로는 별개의 시스템이었다. 세 번째 전환은 이 분리된 시스템들이 하나의 플랫폼 위에서 통합되는 과정이다.
2023년 팔란티어가 AIP(AI Platform)를 출시하면서 LLM이 온톨로지 위에 얹어졌다. 이전에는 분석관이 데이터베이스를 탐색해야 했다. 구조화된 쿼리 언어(SQL)를 알아야 했고, 온톨로지의 데이터 구조를 이해해야 했다. 이 기술적 장벽이 접근을 제한했고, 그 제한이 일종의 통제 장치로 기능했다. AIP 이후에는 자연어로 질문하면 LLM이 온톨로지를 탐색하여 결과를 산출한다. “이 지역에서 지난 48시간 동안 비정상적 통신 패턴을 보인 인물을 추려줘”라고 말하면 시스템이 답한다. 코드를 알지 못해도, 데이터베이스 구조를 이해하지 못해도, 질문만 할 수 있으면 된다.

이것이 의미하는 것은 접근성의 확장이기도 하지만, 더 중요한 것은 책임의 확산이다. 이전에는 데이터베이스를 탐색하는 전문 분석관이 결과에 대한 일정한 책임을 질 수 있었다. LLM이 인터페이스가 되면, 누구나 질문할 수 있고 아무도 결과에 책임지지 않는다.
OODA 루프로 보면, 온톨로지가 데이터를 구조화하고(관찰의 체계화), LLM이 그 구조 위에서 범주화·판단·추론을 수행한다(판단의 자동화). 제1편에서 설명한 첫 번째 전환과 이 편에서 다룬 두 번째 전환이 하나의 소프트웨어 안에서 결합된 것이다.
2024년 12월, 안두릴(Anduril)과 팔란티어가 컨소시엄을 발표했다. 이 컨소시엄의 구조를 보면 AI 전쟁 운영체제의 아키텍처가 보인다.
- 안두릴의 래티스 메시(Lattice Mesh)가 전술 센서 데이터를 수집하면,
- 이 데이터가 메이븐 스마트 시스템과 팔란티어 AIP로 흘러들어가고, 판단과 우선순위 결정이 이루어진다.
- 아마존 웹 서비스(AWS)가 기밀 데이터 처리를 위한 클라우드 인프라를 제공하고,
- 앤트로픽의 클로드가 LLM으로 탑재된다.
- 팔란티어의 온톨로지는 이 모든 것을 연결하는 공통 기반이다.
여기서 주목해야 할 것은 이 구성 요소들 중 어느 하나도 단독으로는 AI 전쟁 운영체제가 되지 않는다는 점이다. 래티스 메시만으로는 센서 네트워크에 불과하다. 팔란티어 AIP만으로는 분석 도구에 불과하다. 클로드만으로는 범용 언어모델에 불과하다. 이것들이 하나의 체인으로 연결될 때, 관찰에서 실행까지의 전 과정이 자동화된 운영체제가 출현한다. 규율해야 할 대상이 개별 시스템이 아니라 연결 구조인 이유가 여기에 있다.
우크라이나 — AI 전쟁의 테스트베드
이 통합이 처음 대규모로 시험된 전장이 우크라이나이다. 팔란티어의 메타콘스텔레이션(MetaConstellation)과 고담이 위성 이미지, 통신 정보, 오픈소스 인텔리전스를 통합해 실시간 전장 인식을 제공했고, 스타링크(Starlink)가 이 모든 데이터 흐름의 통신 인프라로 기능했다. 우크라이나군은 이 시스템을 통해 적의 병력 이동과 보급로를 실시간으로 파악하고, 분석관의 개입 없이 표적 우선순위가 자동으로 갱신되는 환경에서 전투를 수행했다.


이 전장의 핵심 특성은 기술을 “적용”하는 공간이 아니라 기술을 “개발하고 검증하며 학습 데이터를 축적하는” 실험실이라는 점이었다. 실전에서 생성된 데이터 — 표적 식별의 정확도, 오탐지율, 타격 결과 — 가 모두 AI 시스템의 학습 자산으로 환류된다. 우크라이나 병사들의 희생으로 학습된 알고리즘과 축적된 데이터는 팔란티어 등 서구 방산-테크 기업의 AI 학습 자산으로 활용된다. 전장에서 검증된 킬체인은 전 세계로 수출될 차세대 무기 체계의 원형이 된다.
이 구조를 이해하면, 서방의 우크라이나 지원이 단순한 동맹 의무나 민주주의 연대가 아닌 차원을 갖는다는 것이 보인다. 전쟁은 AI 기업들에게 실전 데이터 수집의 기회이다. 그리고 그 데이터가 쌓일수록 다음 전쟁에서 AI는 더 “정확하게” 작동한다. 전장은 시장이기도 하다.
2025년 3월, NATO 통신정보국이 팔란티어의 메이븐 스마트 시스템 NATO 버전(MSS NATO)을 구매했다. 우크라이나에서 검증된 시스템이 NATO 전체로 표준화되기 시작한 것이다. 이것은 단순한 무기 거래가 아니다. NATO의 31개 회원국이 동일한 AI 전쟁 운영체제를 사용하게 된다는 것은, 표적 식별·분류·타격의 기준이 하나의 알고리즘으로 통일된다는 뜻이다.
베네수엘라 — ‘3분 전’의 속도전
2026년 1월 3일 새벽, 미 델타포스 특수부대가 베네수엘라 카라카스를 급습했다. 니콜라스 마두로 대통령과 그의 아내가 자택에서 체포되어 미국으로 이송되었다. 전쟁장관 헤그세스에 따르면, 마두로는 미군 도착 3분 전까지 작전을 인지하지 못했다. 이 “3분”이 의미하는 것은, AI War OS가 단순한 전장 지원 시스템이 아니라 국가 원수를 자국 영토에서 체포·강제 이송하는 작전에 투입될 수 있는 수준에 도달했다는 것이다.

이 작전을 1편에서 상세하게 설명한 OODA 루프로 보면, 관찰·판단·결정이 거의 동시에 완료되어 실행만 남은 상태로 작전이 시작된 것이다. 대상의 이동 패턴 분석, 자택 보안 체계 파악, 최적 진입 타이밍 계산이 인간 지휘관의 개입 없이 AI에 의해 처리되었다는 뜻이다. OODA 루프의 네 단계가 사실상 하나의 순간으로 압축된 것이다.
월스트리트저널은 이 작전에서 앤트로픽의 클로드가 팔란티어와의 파트너십을 통해 사용되었다고 보도했다. 이 보도가 나온 직후, 앤트로픽의 한 직원이 팔란티어 측에 클로드가 작전에 어떻게 사용되었는지 문의했고, 이것이 전쟁부와의 갈등을 촉발하게 된다.
이란 전쟁 — AI 전쟁 운영체제의 표준화
2026년 2월 28일, 미국과 이스라엘이 이란에 대한 군사 작전을 개시했다. 이 작전의 핵심 인프라가 메이븐 스마트 시스템이었다. 워싱턴 포스트는 클로드가 위성 영상, 신호정보, 감시 피드를 실시간으로 종합하여 첫 24시간 동안 약 1,000개의 우선순위 표적을 생성했다고 보도했다. 미 중부사령부(CENTCOM) 작전부 부국장 리엄 훌린(Liam Hulin) 해군소장은 메이븐이 179개 데이터 소스를 통합한다고 설명했다. 조지타운대학교의 사례 연구에 따르면, 메이븐을 활용한 결과 20명의 팀이 2,000명이 수행하던 작업을 처리했다.

179개 데이터 소스. 24시간에 1,000개 표적. 20명이 2,000명의 업무 처리. 이것은 효율화의 언어이다. 100배의 생산성 향상. 전쟁부와 방산 기업들은 이 숫자를 자랑스럽게 인용한다. 그러나 이 효율화의 언어 안에 무엇이 소멸했는지를 보려면, 다른 숫자가 필요하다.
2026년 2월 28일, 이란 미나브의 샤자레 타예베 여자 초등학교에 토마호크 미사일이 명중했다. 이란 당국 발표 기준 153명에서 175명 사이의 학생이 사망했다. 로이터·워싱턴포스트·뉴욕타임즈는 미군의 표적 데이터베이스가 오래된 정보를 사용했을 가능성을 보도했다. 2013년까지 혁명수비대 기지의 일부였던 이 건물이 학교로 전환된 지 10년이 지났는데도, AI 표적 시스템의 데이터베이스에는 여전히 군사 시설로 분류되어 있었다는 것이다.

179개 데이터 소스를 통합하고 1,000개의 표적을 24시간 만에 생성하는 시스템이 “설계대로 작동”한 결과가 초등학교 폭격이었다. 시스템은 설계대로 작동했다. 오래된 데이터를 충실하게 처리했을 뿐이다. 여기서 드러나는 것은 AI 시스템의 “오류”가 아니라, 데이터에 의존하는 자동화 시스템의 구조적 한계이다. 데이터가 현실을 반영하지 못할 때, 시스템의 정확한 작동은 정확한 파괴를 낳는다. 이것이 가자에서 라벤더가 37,000명을 분류한 것과 동일한 구조적 문제이다. 알고리즘은 데이터를 판단하지 않는다. 데이터를 처리할 뿐이다.

윤리가 퇴출 사유가 되는 체제
이란 전쟁이 진행되는 동안, 전쟁부와 앤트로픽의 갈등이 폭발했다. 갈등의 진원은 계약 조건이었다. 앤트로픽은 두 가지 레드라인을 제시했다. 미국 시민 대량 감시 금지와 완전 자율무기 금지. 그리고 전쟁부가 합법적이라고 판단하면 어떤 용도로든 사용할 수 있다는 포괄적 허용 조항인 ‘모든 합법적 용도(Any Lawful Use)’ 조항을 거부했다. 앤트로픽은 자사 모델이 무엇에 사용되는지 알 권리가 있다고 주장했고, 전쟁부는 기밀 작전의 세부 사항을 민간 기업에 공개할 의무가 없다고 맞섰다.

그 결과, 앤트로픽은 공급망 위험(supply chain risk)으로 지정되어 모든 군 계약자와의 거래가 금지되었다. 나라를 위태롭게 하는 보안 위협이라는 것이다. 2026년 3월 26일, 캘리포니아 북부연방지방법원의 리타 린 판사가 이 지정의 집행을 잠정 중단하는 예비적 금지명령을 발부했다. 린 판사는 판결문에서 이렇게 적었다. “미국 기업이 정부에 대한 이견을 표명했다는 이유로 잠재적 적국이자 파괴자로 낙인찍힐 수 있다는 오웰적 관념을 뒷받침하는 법적 근거는 없다.”
같은 기간, 일론 머스크의 xAI가 만든 그록(Grok)이 GenAI.mil에 통합되었다. GenAI.mil은 미 전쟁부가 2025년 12월 출범시킨 군 전용 생성형 AI 플랫폼으로, 군인·민간인·계약직을 포함한 약 300만 명의 전쟁부 인원이 기밀 환경에서 AI를 사용할 수 있게 한 시스템이다. 그록은 앤트로픽이 제시한 것과 같은 레드라인 없이, ‘Any Lawful Use’ 조항을 수용하는 조건으로 통합되었다. 앤트로픽이 퇴출되기 전까지는 클로드가 이 시스템에서 분류 업무에 승인된 유일한 AI였다.
이 구조를 하나의 명제로 정리하면 이렇다. 안전을 내세우지 않는 기업은 기밀 네트워크에 통합되고, 안전을 내세우는 기업은 시장에서 축출된다. 윤리적 기업이 시장에서 불이익을 받는 구조가 확립되면, 자율규제는 경쟁적 자살이 된다. 기업 윤리도, 기업 자율규제도, 기업-정부 계약도 구조적으로 실패한 상황에서, 남은 통제 경로는 의회 입법뿐이다. 그러나 그 입법이 무엇을 규율해야 하는지를 알기 위해서는, 블랙박스의 내부를 봐야 한다.
세 전장이 보여주는 하나의 궤적
우크라이나에서 AI 전쟁 운영체제는 시험되었다. 베네수엘라에서 이 운영체제는 실전에 투입되었다. 이란에서 이 운영체제는 표준화되었다.
이 궤적의 출발점은 가자이다. 이스라엘이 수십 년간 팔레스타인 감시 데이터를 축적하고, 그 위에서 복음·라벤더·아빠는 어디에·화력 공장을 개발·운용한 경험이 AI 전쟁 운영체제의 원형을 만들었다. 가자에서 이 시스템들은 “판단의 자동화”가 실전에서 어떻게 작동하는지를 보여주었고, 그 결과 — 37,000명의 분류, 20초의 승인, 민간인 15~20명이라는 파라미터 — 는 AI 전쟁의 비용이 무엇인지를 드러냈다.
팔란티어와 안두릴은 이 경험을 플랫폼화하여 미군에 공급했고, LLM의 통합이 이것을 완성했다. 가자에서는 각각의 시스템이 분리되어 있었지만, 컨소시엄 이후 이것들은 하나의 소프트웨어로 결합되었다.

이 궤적에서 가장 중요한 것은 가속도이다. 우크라이나(2022~)에서 이란(2026.2)까지 4년이 채 되지 않는다. 이 4년 동안 AI 전쟁 운영체제(AI War OS)는 시험을 완료하고 실전을 통과하고 표준화되었다. 비교하면, 핵무기가 시험(1945)에서 NATO 표준 전력화까지 약 10년이 걸렸다. 드론이 시험(1990년대)에서 글로벌 표준 무기화까지 약 20년이 걸렸다. AI 전쟁 운영체제(AI War OS)는 4년 만에 같은 경로를 주파했다. 기술의 군사적 채택이 이전과는 다른 속도로 진행되고 있다. 그리고 그 속도는 민주적 통제와 국제법적 규율이 따라갈 수 있는 속도를 이미 넘어서고 있다.
2026년 2월 26일, 나는 DMZ 세계문학페스타 기획심포지엄에서 “사람을 죽이는 세계, 사람을 살리는 세계: AI제노사이드와 ‘평화월딩’의 과제”를 발표했다. 발표 이틀 후인 2월 28일, 이란 전쟁이 시작되었다. 발표문에서 가정문으로 썼던 것들이 이틀 만에 현실이 되었다.
📢 다음 편 예고
세 번의 전환을 거쳐 AI War OS가 완성된 현재, 남은 질문은 “이 운영체제의 안에 무엇이 있는가”이다. 2026년 3월, 클로드 코드 50만 줄이 유출되면서 블랙박스가 열렸다. 하네스(harness)란 무엇인가, 93% 자동 승인과 라벤더 20초의 동형성이 드러내는 것은 무엇인가, 분류기의 역설이란 무엇인가. 그리고 평화월딩의 관점에서 이 구조에 어떻게 개입할 수 있는가를 제3편에서 다룬다.
📚 더 읽을 거리
🔖 앤터니 로엔스틴, 『팔레스타인 실험실: 이스라엘은 어떻게 점령 기술을 세계 곳곳에 수출하고 있는가』, 유강은 옮김, 소소의책, 2023. (이스라엘이 점령지에서 개발한 감시·군사 기술이 세계로 수출되는 과정을 추적한 취재 기록. 한국어판)
🔖 Chris Hables Gray, AI, Sacred Violence, and War — The Case of Gaza, Palgrave Macmillan, 2025. (가자 전쟁에서의 AI 표적 시스템을 비판적으로 분석한 학술서, 오픈 액세스)
🔖 최재운, 『인간 없는 전쟁: 두려움도 분노도 없는 AI 전쟁 기계의 등장』, 북트리거, 2026. (AI가 전쟁의 주체를 바꾸는 현실을 최신 전쟁 사례로 분석하고, 자동화된 결정 속에서 책임이 흐려지는 구조를 짚는 한국어 입문서)
