Anthropic、米国防総省のAI安全策撤廃要求を拒否 最大2億ドル契約に影
米国防総省(ペンタゴン)がAI企業Anthropicに対し「安全策(ガードレール)」の撤廃を求め、Anthropicがこれを拒否しました。 自律的な武器の標的化や米国内での監視利用をめぐる線引きが、最大2億ドルの契約継続にも影響しうる局面です。
何が起きたのか:安全策を外す要求に「応じない」
Anthropicは、米国防総省から自社AIシステムの安全策を削除するよう求められたものの、応じない方針を示しました。報道によると、米国防総省側はAnthropicを「サプライチェーン上のリスク」と見なし、国防総省のシステムから外す可能性を示唆し、契約(最大2億ドル)にも影響が出る恐れがあります。
対立の焦点:自律兵器と米国内監視
今回の争点は、Anthropicが「用途の歯止め」として設けている安全策を外すかどうかです。背景には、同社が以下の用途を強く懸念している点があります。
- AIが人の関与なしに武器の標的を定めるなど、完全自律型の兵器運用につながる利用
- AIを使った米国内での大規模監視につながる利用
Anthropicのダリオ・アモデイCEOは木曜日の声明で、こうした用途への反対を改めて強調しました。完全自律兵器については「最先端(フロンティア)のAIは信頼性が十分ではない」という趣旨を述べたとされています。
米国防総省側の説明:「求めているのは合法目的での利用」
一方、米国防総省のショーン・パーネル報道官はXで、同省は米国民への大規模監視にAIを使う意図はなく、人の関与なしに作動する自律兵器をAIで開発したいわけでもない、と説明しました。
そのうえで、米国防総省が求めているのは「Anthropicのモデルを、あらゆる合法目的で使えるようにすること」だと述べ、米東部時間の金曜日午後5時1分(22:00 GMT)までに判断するよう求めたとされています。
Anthropic側の論点:技術的リスクと法の“すき間”
同社に近い関係者によると、Anthropicは米国防総省が実際に大規模監視や完全自律兵器を計画していると断定しているわけではなく、あくまで「製品安全上の判断」を示している、という位置づけです。
関係者は、AIが未知の状況で予測不能な挙動を示す可能性があり、武器の文脈では「味方への誤射」「任務失敗」「意図しないエスカレーション」につながりうる、と説明したとされています。
また米国内監視については、大量データの集約によってAIが導く結論が、現行法では明確に制限されない場合があり得る点が問題だとしています。つまり、明示的に禁じられていなくても、憲法上の保護の精神に反するような人口規模のプロファイリングにつながりかねない、という懸念です。
契約と「サプライチェーンリスク」指定、国防生産法の言及も
アモデイCEOは、米国防総省が契約解除に踏み切る場合には「別の提供者への移行が円滑に進むよう協力する」としつつも、安全策撤廃の要求には「良心に照らして応じられない」との立場を崩しませんでした。
さらに、米国防総省側がAnthropicを国防総省システムから外す可能性や、「サプライチェーンリスク」の指定、そして国防生産法(Defense Production Act)を根拠に安全策撤廃を迫る可能性に言及した、とされています。
SNS上の応酬と、社内外の支持
米国防総省のエミル・マイケル国防次官はXで、アモデイCEOの主張に強い調子で反論し、国防総省は常に法に従う一方で、民間企業の意向に左右されない姿勢を示しました。
また、公開書簡ではGoogleおよびOpenAIの従業員200人超がAnthropicの立場を支持したとされています。AnthropicはGoogleとAmazonの支援を受け、同省と最大2億ドル規模の契約を結んでいます。
いま読み解くポイント:AIの「使えること」と「使っていいこと」
今回の対立は、AIの能力そのもの以上に、調達側(政府)と提供側(企業)がどこまで用途を制限できるのか、そして「合法」だけでは埋まらない運用上のリスクや社会的影響をどう扱うのか、という問題を浮かび上がらせています。
安全策が「足かせ」になるのか、それとも事故や逸脱を防ぐ「標準装備」になるのか。2026年のAI活用が広がる中で、企業と政府の交渉がどんな落としどころに向かうのかが注目されます。
Reference(s):
Anthropic rejects Pentagon's request in AI safeguards dispute
cgtn.com








