米政府、AIモデルのリリース前審査を導入へ:安全保障上のリスク評価を強化
AIの進化速度が社会のあり方を根本から変えつつある中、米国政府がその「安全確認」の役割を大幅に強化しようとしています。
リリース前の「事前評価」へ舵を切る米国
米国政府は、Google DeepMind、Microsoft、xAIなどのテック大手による新しいAIモデルを、一般公開前に政府が評価できるようアクセス権を持つという方針を明らかにしました。
トランプ政権は、これまでシリコンバレーの急速な開発を妨げないよう、規制に慎重な「ハンズオフ(不干渉)」のアプローチを採ってきました。しかし、今回の決定で、国家安全保障の観点からより踏み込んだ関与へと舵を切った形になります。
このパートナーシップは、バイデン前政権時代に合意された枠組みをベースに、現政権下で再交渉を経て成立したものだということです。
転換のきっかけとなった強力なAI「Mythos」
今回の政策転換を後押しした直接的な要因として、サンフランシスコのスタートアップ企業Anthropic(アンソロピック)が開発した強力なAIモデル「Mythos(ミュトス)」の存在が挙げられます。
Mythosは、ソフトウェアのセキュリティ上の脆弱性を特定する極めて高い能力を持っており、開発元のAnthropic社は、これが公開されればサイバーセキュリティに深刻な影響を及ぼす可能性があるとして、一般公開を拒否しています。
米国の報道によれば、すでに国家安全保障局(NSA)がこのモデルにアクセスし、その能力とリスクについてのテストを行っているとされています。
安全保障とイノベーションの両立を目指して
今後の評価を主導するのは、商務省傘下の「AI標準・イノベーションセンター(CAISI)」です。バイデン政権時代に設立された「AI安全研究所」に代わって設立されたこの組織は、以下のような役割を担います。
- 展開前の評価: 新しいAIモデルがリリースされる前に、その能力とリスクを測定する。
- ターゲット研究: 最先端のAI(フロンティアAI)の能力を正確に把握するための研究を行う。
- AIセキュリティの推進: 技術的な安全基準を策定し、セキュリティを高める。
また、ホワイトハウスでは現在、テック企業の幹部と政府職員からなるワーキンググループを設置し、具体的な審査手順を定めるための方針(大統領令)を検討していると報じられています。
「フロンティアAIとその国家安全保障上の意味を理解するためには、独立した厳格な測定科学が不可欠である」とCAISIのクリス・フォール局長は述べています。急速な技術革新という「加速」と、安全保障という「ブレーキ」をどのように調和させるのか。世界的なAI競争が激化する中で、米国のこのアプローチが今後の国際的な標準にどのような影響を与えるのかが注目されます。
Reference(s):
cgtn.com