マスク氏のAI「Grok」が米政府に拡大 DOGE構想に利益相反と情報漏えいの懸念
米連邦政府内で、イーロン・マスク氏のチームが関わるAIチャットボット「Grok」の活用が広がっていると伝えられ、利益相反や個人情報保護をめぐる懸念が一気に噴き出しています。
米政府で何が起きているのか
複数の関係者によると、マスク氏が率いる政府効率局 Department of Government Efficiency(略称DOGE)のチームが、米連邦政府内でAIチャットボットGrokの利用を拡大しているといいます。目的は、膨大なデータをより効率的に分析し、報告書作成や分析作業を自動化することだとされています。
この動きを知る人物の一人は、DOGEチームがカスタマイズ版のGrokを使い、質問を投げかけて回答を得たり、報告書を作成させたりしていると証言しています。
別の関係者2人によると、DOGE職員は国土安全保障省(DHS)の職員に対し、まだ省内で正式な承認を受けていないにもかかわらずGrokの利用を促していたといいます。
こうした動きは、プライバシー保護を重視する団体などの間で、長年築かれてきた機密データの扱いに関するルールが軽視されているのではないか、との懸念を一段と強めています。
一方で、どのような種類のデータがこの生成AIに入力されているのか、またカスタム版のシステムがどのような構成になっているのかについては、取材を行った報道機関も詳しい実態を確認できていないとしています。
マスク氏のDOGEとGrokとは
関係者によれば、DOGEは「政府の無駄を省き、効率化を進める」ことを掲げるマスク氏のチームです。現在、ドナルド・トランプ大統領が米官僚機構の改革を進める中で、その一翼を担う存在として注目されています。
一方のGrokは、2023年にマスク氏がソーシャルメディアX上で立ち上げたAI企業xAIが開発したチャットボットです。ユーザーの質問に答え、レポート作成やデータ分析にも使えるとされています。
専門家が指摘する主なリスク
もしGrokに入力されているのが機密性の高い政府情報や、数百万のアメリカ人に関わる個人データだとすれば、危うい綱渡りになります。技術や政府倫理に詳しい専門家5人は、次のようなリスクを指摘しています。
- 機密・個人情報の保護:機密情報や個人情報が外部のAIシステムに渡れば、米国の安全保障やプライバシー関連の法律に違反する可能性がある。
- 利益相反の懸念:マスク氏はテスラやスペースXなどを通じて、連邦政府と取引のある民間企業のトップでもあります。Grokの利用を通じて、こうした取引に関わる非公開データにアクセスできれば、利益相反とみなされかねないと専門家は見ています。
- AI市場での不公平な優位:Grokが政府内で広く使われ、そこで得たデータがAIモデルの学習にも利用されるようなことがあれば、他のAIサービス提供企業に対してマスク氏の陣営が不当に有利になる、との見方も出ています。
- 手続き・ガバナンスの問題:国土安全保障省などで正式な承認を経ずにGrokの利用を促していたとすれば、本来あるべき審査プロセスが形骸化しているのではないか、との懸念もあります。
当局と関係者はどう答えているか
マスク氏本人、ホワイトハウス、xAIはいずれもコメント要請に応じていないとされています。
これに対し、国土安全保障省の報道担当者は、DOGEが省の職員に特定のツールや製品の利用を強要した事実はないと否定し、DOGEは「無駄や不正と戦うために存在している」と強調しています。ただし、その後の詳細な質問には回答していません。
また、Grokに入力された具体的なデータの中身や、カスタム版システムの詳細な設計については、報道機関も確認できていないとされており、情報の透明性には依然として課題が残っています。
AIと政府データ、どこまで許されるのか
今回の動きは、「政府が抱える膨大なデータを、どこまで民間のAIに委ねてよいのか」という問いを突きつけています。
Grokのような生成AIは、書類作成やデータ整理の時間を大幅に削減し、行政の効率化に寄与する可能性があります。トランプ政権のように官僚機構の見直しを掲げる政権にとって、その魅力は小さくないはずです。
しかし、効率化の名の下に、長年積み重ねられてきた個人情報保護や機密情報の取り扱いルールが軽視されれば、政府への信頼を損なう結果につながりかねません。
今後、米連邦政府内でGrokの利用実態がどこまで検証されるのか、またAIと政府データの距離感をどう設計していくのかは、アメリカだけでなく各国の行政にとっても重要な前例になりそうです。
Reference(s):
Musk's DOGE expanding his Grok AI in U.S. government, raising concerns
cgtn.com








