カナダ政府、OpenAIを召喚 銃撃事件前の通報見送り巡り説明要求
2026年2月、カナダ政府がOpenAIの安全担当幹部を首都オタワに呼び、同社が不審な利用を把握していたにもかかわらず当局へ通報しなかった判断について説明を求めています。AIの「検知」と「通報」の境界線が、いま改めて問われています。
何が起きたのか:2月10日のブリティッシュコロンビア州の悲劇
報道によると、ブリティッシュコロンビア州タンブラー・リッジで2月10日、18歳のジェシー・ヴァン・ルーツェラール容疑者(トランスジェンダー女性)が母親と兄弟、さらに学校で6人を殺害し、計8人が死亡しました。学校で亡くなったのは子ども5人と教師1人で、容疑者は現場で自傷による銃創で死亡したと警察は述べています。
カナダでは銃規制が厳しく、大規模な銃撃事件は非常にまれとされます。今回の事件は、同国でも最悪級の暴力事案の一つとして衝撃を広げました。
OpenAIの説明:2025年6月にアカウント検知・停止、ただし警察には連絡せず
OpenAIは、2025年6月に同容疑者に紐づくChatGPTアカウントを、暴力に関連する利用を探知する調査プロセスの中で特定したとしています。同月中にアカウントは停止されましたが、当時はカナダ警察に知らせなかったということです。
OpenAIは、疑わしいアカウントを見つけた場合でも、法執行機関に関与を求めるかどうかの判断には「非常に高い基準(high bar)」があると説明。今回については、利用状況が「信頼できる、または差し迫った攻撃計画」を示すものではないとして、通報を見送ったとしています。
一方で同社は先週の声明で「タンブラー・リッジの悲劇の影響を受けたすべての人々に思いを寄せている」とした上で、王立カナダ騎馬警察(RCMP)には、その後、当該個人とChatGPT利用に関する情報を自主的に提供し、捜査に協力しているとも述べました。
政府の反応:AI担当相が「非常に衝撃的」と批判、2月24日に面会へ
カナダの人工知能(AI)担当相エバン・ソロモン氏は、オタワで2月23日(月)に記者団へ、OpenAIの判断は「非常に衝撃的(very disturbing)」だと述べました。
ソロモン氏は、米国にいるOpenAIの上級安全チームをオタワに呼び、2月24日(火)に面会して安全プロトコル(運用基準)の説明を受けるとしています。報道で「法執行機関への連絡が適時でなかった」と読んだ直後に、同氏がOpenAIへ連絡したとも語りました。
焦点は「検知できたのに通報しない」判断の線引き
今回の争点は、AI事業者が不審利用を検知した際に、どの段階で法執行機関へ情報共有すべきか、そしてその判断基準を社会がどう監督するのかにあります。
現時点でソロモン氏は、今後どのような規制や新たな法整備を検討するかは明言していません。ただ、「あらゆる選択肢がテーブルの上にある(all options are on the table)」と述べ、制度面の見直しも排除していない姿勢を示しました。
今後の見どころ:説明責任と、利用者保護のバランス
2月24日の面会では、少なくとも次の点が注目されます。
- OpenAIが「差し迫った危険」をどう定義し、誰が最終判断するのか
- アカウント停止だけで十分と判断した根拠(記録・監査のあり方)
- 捜査協力を行った時点と、共有した情報の範囲
- 政府側が求める再発防止(業界ルールか、法規制か)
AIの安全対策は、過剰な監視や誤通報による権利侵害を避けつつ、現実の危害をどう減らすかという難題と隣り合わせです。今回の召喚は、その「境界線」を社会が具体的に問い直す局面になりそうです。
Reference(s):
cgtn.com








