Google、米国防総省と機密AI契約を締結 自律兵器利用に制限条項も
人工知能(AI)の軍事利用をめぐる動きが活発化する中、米国防総省(ペンタゴン)が主要テック企業と結ぶ機密契約のリストに、Googleが加わりました。この契約により、国防総省はGoogleのAIモデルを機密業務に利用できるようになります。AI技術の国家安全保障への統合が進む一方、その倫理的運用をどう確保するかが引き続き焦点となっています。
主要AI企業が相次いで参画
アルファベット傘下のGoogleは、米国防総省と人工知能(AI)モデルの機密業務での利用に関する契約を結びました。この情報は、2026年4月28日(火曜日)にメディア『The Information』によって報じられました。この契約により、国防総省は「いかなる合法的な政府目的」のためにもGoogleのAIを利用できるようになります。
同じくAI開発で先行するOpenAIやイーロン・マスク氏が設立したxAIも、すでに同様の契約を結んでおり、国防総省は主要なAI開発企業との連携を強化しています。機密ネットワークは、作戦計画や兵器の目標設定など、幅広い敏感な業務に使用されます。
2025年に結ばれた高額契約
国防総省は2025年、Anthropic、OpenAI、Googleといった主要AI研究所と、それぞれ最大2億ドル(約320億円)規模の契約を結びました。ロイター通信の以前の報道によれば、国防総省はOpenAIやAnthropicといったトップAI企業に対し、一般ユーザー向けに適用している標準的な制限を外し、機密ネットワーク上でそれらのツールを利用可能にするよう働きかけていたとされます。
安全性と監視の条項
Googleとの契約には、政府の要求に応じて同社のAI安全設定やフィルターを調整することをGoogleに義務付ける条項が含まれています。また、契約文書には「AIシステムは、適切な人間の監督と管理なしに、国内での大規模監視や自律兵器(目標選択を含む)を目的としたものではなく、またそのために使用されるべきではない」と明記されています。
一方で、この契約はGoogleに合法的な政府の作戦上の意思決定をコントロールしたり拒否権を行使したりする権利を与えるものではないとも記載されています。Googleは声明で、機密・非機密双方のプロジェクトで政府機関を支援しており、適切な人間の監督なしにAIを国内大規模監視や自律兵器に使用すべきではないという合意にコミットし続けていると述べました。
Anthropicをめぐる経緯
今年初めには、新興企業のAnthropicが、自社のAIを自律兵器や国内監視に使用することに対する防護策(ガードレール)の除去を拒否したため、国防総省と対立しました。その結果、同省はClaudeの開発元であるAnthropicを国家安全保障上のサプライチェーンリスクとして指定するに至っています。この事例は、AI企業と政府の間で、技術の提供条件と倫理的境界線についての緊張関係が存在することを示しています。
AIの軍事応用は急速に進展していますが、その過程では「どのような用途を認め、どのように監視するか」という根本的な問いが常について回ります。主要プレイヤーが相次いで政府と契約を結ぶ現状は、この技術がすでに国家安全保障の核心に組み込まれつつあることを物語っています。今後の展開では、技術の進化と並行して、その運用をめぐるガバナンスや国際的なルールづくりの議論もさらに重要になるでしょう。
Reference(s):
The Information: Google signs classified AI deal with Pentagon
cgtn.com



