米国防総省、Anthropicを「供給網リスク」に指定 Claude排除求める
米国防総省(ホワイトハウスが現在「Department of War(DOW)」の呼称を用いる組織)が、生成AI企業Anthropicと同社のAIモデル「Claude」を「供給網(サプライチェーン)リスク」に指定したと、米メディアが2026年3月5日(木)に報じました。指定が実務に及ぶと、国防関連の調達や開発の現場でClaudeの利用が難しくなり、波紋が広がりそうです。
何が起きたのか:米政府がAnthropicに「供給網リスク」指定を通告
報道によるとDOWは、Anthropic側に対し「同社と製品は供給網リスクに当たる」と即時発効で正式に通知しました。これまで同様の指定は「敵対国の企業」に限られてきたとされ、米国企業としては初のケースだと伝えられています。
指定に伴い、国防関連のベンダーや請負業者は、DOW向け業務でAnthropicのClaudeモデルを使っていないことを証明(認証)するよう求められる見通しです。AIは開発・分析・文書作成など幅広い工程に入り込みつつあるため、適用範囲次第で影響は調達網全体に波及し得ます。
対立の背景:監視や自律兵器への利用をめぐる線引き
今回の対立は、Anthropicが自社技術について「大規模監視」や「完全自律型兵器システム」での使用に慎重な姿勢を示し、これがDOW長官のPete Hegseth氏を怒らせたことが発端だと報じられています。
これに対しワシントン側は、DOWは法の範囲で運用しており、契約先が製品の使い方の条件を決めるべきではないという立場を示したとされています。AIの安全設計(セーフガード)をどこまで供給側が握り、どこから先を利用側の裁量とするのか――線引きの難しさが前面に出た構図です。
企業側の対応:提訴方針、政治的動機の指摘も
Anthropicは、この指定を裁判で争う方針を示したとされ、米政府と大手テック企業の間で「公の場での対決」となる珍しい展開になっています。
また、今週に入って両者が投資家の仲介で交渉に入ったとする報道があった一方、3月4日(水)にはThe Informationが、AnthropicのDario Amodei CEOが社内向けに「措置は政治的動機によるものだ」と述べたと報じました。記事では、OpenAIのGreg Brockman氏がトランプ氏に2500万ドルを献金したことへの言及も紹介されています。
運用面の火種:イラン攻撃と「政府全体の利用停止」報道
複数の米メディアは、米軍が先週末のイラン攻撃でClaudeを使用し、政府全体での利用禁止が先週命じられた後も使用が続いている、と伝えています。
さらに報道では、トランプ氏がSNSを通じて連邦機関に対しAnthropic技術の即時使用停止を指示し、DOWなどには6か月の段階的廃止期間が設けられたとされています。現場では「禁止の指示」と「実務の継続」がねじれる可能性があり、運用の整合性が焦点になりそうです。
今後の見どころ:AI調達の「安全」基準はどこまで広がるか
今回の指定が示すのは、AIが「便利な道具」を超えて、調達・安全保障・契約実務のど真ん中に入ってきた現実です。今後の注目点は、次の3つに整理できます。
- 指定の射程:請負業者の認証義務が、どの作業・どの子会社・どの下請けまで及ぶのか
- 法廷闘争の論点:政府の裁量と企業側の安全設計・利用制限の主張がどこで衝突するのか
- 業界への波及:他のAI企業にも同種の指定や、逆に政府調達向けの「利用条件」統一が広がるのか
AIの「リスク管理」は技術だけで完結せず、政策・契約・運用の細部で形が決まっていきます。今回の一件は、その綱引きが表面化したケースとして、しばらく議論の中心に残りそうです。
Reference(s):
cgtn.com








