米・イスラエルの対イラン攻撃、標的選定に商用AI活用か 戦争の意思決定が変わる
2026年3月上旬、米国とイスラエルによるイランへの攻撃をめぐり、標的選定などの工程で商用AIが運用に組み込まれていた可能性が報じられました。人間の判断を補助するはずのAIが、戦場の「意思決定の速度」そのものを変えつつある点が、いま静かに注目されています。
何が起きたのか:米中央軍で「Claude」を運用したとの報道
米メディアの報道として、米中央軍が標的設定のプロセスでAnthropicのAIモデル「Claude」を稼働させていたと伝えられています。報道では、試験的な実証ではなく、実運用の文脈で、次の用途に使われたとされています。
- 情報評価(インテリジェンスの整理・評価)
- 標的の特定(ターゲット・アイデンティフィケーション)
- 模擬戦闘シナリオ(シミュレーション)
AIが「ここにいる」と断定するというより、「この15分の間に、この座標にいる確率が87%」といった形で、確率と時間幅を伴う判断材料を提示し、意思決定を前に進める構図が描かれています。
戦場のスピードが変わる:OODAループが「機械の速度」に
現代の軍事判断では、OODAループ(観察・状況判断・決定・行動)という4段階の思考モデルがしばしば参照されます。報道が示唆するのは、この循環が人間の会議体のテンポではなく、計算機のテンポで回り始めているという変化です。
速度が上がるほど、優位性が生まれる局面がある一方で、誤認・過信・説明不能(なぜその結論かを言語化しにくい)といったリスクも同時に濃くなります。
兵器側も「考える」:AI誘導ミサイルと自爆型ドローン
報道の中では、イスラエル軍がAI駆動のミサイル「Ice Breaker」を運用しているとも伝えられています。飛行中に経路を選び、他の弾薬と通信しながら動く設計だとされています。
また、米国の「Lucas」自爆型ドローン(徘徊型の滞空弾薬)が言及され、群れ(スウォーム)での運用が現実味を帯びている、という描写もありました。個々の機体が比較的低コストであれば、量と速度の組み合わせが戦術の標準になり得ます。
防衛産業だけでは回らない:シリコンバレーが戦争の部品になる
従来の戦争は、防衛企業(大手の伝統的な防衛請負企業)を中心に成立してきました。しかし、AIが中核に入ると、民間のAI企業とそのモデル運用が「戦力の一部」になっていきます。
報道によれば、Claudeを開発するAnthropicは、同社CEOのダリオ・アモデイ氏が以前、暴力や監視への利用に線引きを示していたとされています。一方で、米戦争長官ピート・ヘグセス氏が同社を「傲慢」と評し、「イデオロギーが米国の戦士の妨げになっている」と非難した、という紹介もありました。
民間企業の倫理方針と、国家安全保障の論理が正面衝突しうる構図が、ここにあります。
いま浮上する論点:便利さの先にある「責任の所在」
現時点の報道ベースで、論点は大きく次の方向に整理できます。
- 人間の関与(Human-in-the-loop):最終判断は誰が、どの段階で行うのか
- 説明可能性:確率や推奨が出たとき、なぜそうなったのかを検証できるのか
- 誤作動・誤認の連鎖:高速化が、修正の余地(立ち止まる時間)を削らないか
- 民間技術の軍事転用:商用AIの利用範囲を、誰がどう定義するのか
- エスカレーション管理:判断の自動化が、衝突の拡大を早めないか
映画『ターミネーター』(1984年)に登場した「スカイネット」は、長く警鐘の比喩として語られてきました。今起きているのは、物語の再現というより、意思決定のプロセスが静かに置き換わっていく現実です。便利さと抑制、スピードと検証可能性。そのバランスをどこに置くのかが、2026年の安全保障を読み解く鍵になりそうです。
Reference(s):
cgtn.com








