カナダ、OpenAIに安全対策の迅速強化を要求 応じなければ法規制も
カナダ政府が、ChatGPTを開発するOpenAIに対し「安全対策を速やかに強化しなければ、政府が立法で変更を促す」と踏み込んだ姿勢を示しました。2月10日にブリティッシュコロンビア州で起きた銃撃事件を受け、AIプラットフォームの通報判断や責任の線引きが改めて問われています。
何が起きたのか:政府がOpenAIの安全チームを呼び出し
カナダの閣僚は今週、OpenAIに対して安全プロトコル(危険兆候の検知や通報を含む運用ルール)の強化を求めました。背景には、銃撃事件の容疑者とされる人物のアカウント対応をめぐり、OpenAIが警察へ連絡していなかった点が注目されたことがあります。
報道によれば、カナダ政府は今週火曜日にOpenAIの安全チームを協議のために呼び、翌水曜日にショーン・フレイザー司法相が記者団に対し、「(改善が)ごく早期に示されなければ、政府が変更を加える」と述べました。
焦点:通報すべきだったのか、基準は適切だったのか
問題となっているのは、OpenAIが当該アカウントをポリシー違反で停止していた一方、法執行機関への通報は行わなかったことです。OpenAIは、社内基準上「差し迫って信頼できる重大な身体危害のリスク」とまでは判断されず、通報基準に達しなかったと説明しています。
OpenAIの説明(公表された範囲)
- 容疑者とされる人物のアカウントは、暴力行為を助長する形でのモデル悪用を検知する仕組みでフラグが立ち、2025年に停止された
- 警察への連絡も検討したが、「差し迫った信頼できる危険」の閾値(しきい値)に達しないと判断した
- 今週、追加で講じる措置についてオタワ側へ近く更新するとした
事件の概要:BC州の小さな町で8人が死亡
警察によると、18歳のジェシー・バン・ルーツェラール容疑者は2月10日、ブリティッシュコロンビア州タンブラーリッジ(人口約2,400人)で8人を殺害した疑いがあり、その後自ら命を絶ったとされています。警察は、容疑者は出生時に男性として登録されていたものの女性として自認し、約6年前から移行(トランジション)を始めていたとしています。また、精神的な不調の履歴があったともされています。
政府の問題意識:「会社側に“エスカレーション”の機会があったのでは」
人工知能(AI)政策を担当するエバン・ソロモン氏は、企業側に法執行機関へ情報を引き上げる機会があった可能性に言及し、「もしどの企業にもそうした機会があるなら、より踏み込んでエスカレーションするべきだ」との趣旨で述べました。
また、マーク・カーニー首相は「悲劇や将来の悲劇を防ぐためにできたことは、法律の許す限り徹底的に検討する」と話したとされています。
オンラインの有害行為対策も再浮上:2024年法案の“やり直し”へ
この動きは、AIだけの話にとどまりません。カナダでは2024年、オンライン上のヘイト(憎悪)を取り締まるための法案が示されましたが、対象が広すぎるとの批判もあり停滞しました。閣僚らは、2026年はより焦点を絞った内容で再度取り組む考えを示しています。
専門家の見方:AI監視強化は必要でも、他の見落としもあり得る
犯罪の専門家らは、AIプラットフォームやソーシャルメディアへの監視強化が必要だとしつつ、当局側にも悲劇を防ぐ機会があった可能性を指摘しています。報道では、警察が以前に容疑者の自宅から銃を押収したものの、その後返還されていた経緯も触れられています。
これからの論点:安全と権利のバランスをどう設計するか
今回の件は、「危険兆候を見つけたとき、どこまで・どんな条件で当局に共有するのか」という線引きを社会全体で再確認する契機になりそうです。
- 通報の基準:差し迫った危険の判断を、企業任せにしてよいのか
- 透明性:アカウント停止や通報判断の根拠を、どこまで説明できるのか
- 法制度:立法で義務化する場合、過剰な監視や表現の萎縮をどう避けるのか
オタワとOpenAIの協議が、具体的な運用変更につながるのか。それとも法規制へ進むのか。2026年のデジタル政策を占う一つの試金石になりそうです。
Reference(s):
Canada tells OpenAI to boost safety measures or face government action
cgtn.com








