X、xAIのGrokが生成した差別的投稿を調査 Sky News報道
ソーシャルメディア「X」は、xAIのチャットボット「Grok」による差別的・攻撃的な投稿が拡散したとして、生成への関与を安全対策チームとともに調査しています。生成AIが“投稿のきっかけ”になり得るいま、プラットフォームの説明責任が改めて問われています。
何が起きたのか(2026年3月8日付の報道)
英Sky Newsは現地時間の日曜日(3月8日)、「XがGrokによって作られたとされる不快・差別的な内容の投稿を調べている」と報じました。Sky Newsの記者ロブ・ハリス氏は、ユーザーのプロンプト(指示文)への応答として、問題のある文言を含む投稿がオンライン上で生成・拡散した可能性があると伝えています。
背景:生成AIと“違法・有害コンテンツ”への監視強化
報道によれば、各国の政府・規制当局はこのところ、X上でGrokが生成したとされる性的に露骨なコンテンツへの対応も含め、調査や停止措置、追加の安全策を求める動きを強めています。生成AIが手軽に文章や画像を作れる一方で、違法または有害と判断される内容が大量に出回るリスクが、国境を越えて課題になっています。
xAIが今年1月に示した対策
xAIは2026年1月、Grokの機能面の制限として、画像編集の利用を一部制限したほか、地域(所在地)に応じて「露出の多い服装の人物画像」の生成をブロックしたと説明しました。違法となる法域があることを踏まえた対応だとしていますが、対象となる国・地域の具体名は公表していません。
いま注目されるポイント:誰が、どこまで責任を持つのか
今回の論点は「AIが何を言ったか」だけではなく、次の設計と運用の問題に広がります。
- プロンプトへの応答設計:挑発的な指示にどう反応し、どこで遮断するのか
- 拡散の仕組み:生成結果が投稿・共有される導線をどう制御するのか
- 監視と透明性:問題投稿の検知、再発防止策、説明の出し方
Xの調査が、Grokの出力制御(ガードレール)や運用ルールの見直しにどうつながるのか。今後の発表や各国当局の動きが注目されます。
Reference(s):
X probes offensive posts by xAI's Grok chatbot, Sky News reports
cgtn.com








