カナダ校内銃撃めぐりOpenAI提訴、「攻撃計画を把握」と家族主張
カナダで起きた校内銃撃事件をめぐり、重体となった少女の両親が2026年3月9日(現地時間の月曜日)、ChatGPTを開発するOpenAIを相手取って民事訴訟を起こしました。訴状では「OpenAIは実行犯が大量攻撃を計画していることを知っていた」と主張しており、生成AI企業の責任範囲が改めて問われる形です。
何が起きたのか:両親が起こした民事訴訟
今回の訴えを起こしたのは、カナダの学校での銃撃で命に関わる重傷を負った少女の両親です。報道によれば、両親は民事訴訟の中で、ChatGPTを提供するOpenAIが「実行犯による大量攻撃の計画を把握していた」と主張しています。
現時点で焦点となるのは、訴状がいう「知っていた(把握していた)」が、具体的にどのような情報や経緯を指しているのかという点です。
争点になり得るポイント:「知っていた」とは何を意味するのか
生成AIをめぐる訴訟では、一般に次のような論点が浮かび上がります(今回の訴訟でも同様の整理が意識される可能性があります)。
- 把握の根拠:どの時点で、どの程度「計画」を認識できたのか
- 予見可能性:現実の危害につながるリスクを、どこまで予見できたのか
- 対応義務:危険を察知した場合、企業にどのような行動(注意喚起・通報など)が求められるのか
- 安全とプライバシー:利用者情報の取り扱いと、重大犯罪の抑止をどう両立させるのか
こうした点は、技術の仕組み(会話型AIがどんな情報を保持・参照し得るのか)と、法的責任(企業にどこまでの注意義務を求めるのか)が交差するため、判断が難しくなりがちです。
なぜ今注目されるのか:AIの「安全設計」と社会の期待のギャップ
生成AIは、日常の相談から学習、仕事まで幅広く使われる一方で、悪用や危害の助長をどう防ぐかが継続的な課題です。今回の訴訟は、個別の悲劇に向き合うと同時に、次の問いを突きつけます。
- AI企業は、危険な兆候をどこまで検知し、どこまで介入すべきなのか
- 学校や地域の安全確保において、テック企業の役割はどこまで広がるのか
- 「責任」の線引きが変わると、サービス設計や運用はどう変化するのか
訴訟の進行の中で、当事者の主張や裁判所の判断がどこに重心を置くのかが、今後のAIガバナンス(ルール作り)にも影響を与えそうです。
これからの見どころ:法廷で整理される“責任の地図”
今後は、訴状の主張がどのような事実関係に基づくのか、そして企業側がどのように応答していくのかが焦点になります。生成AIが社会インフラに近づくほど、「何ができるか」だけでなく「何をする責任があるのか」という論点は、より具体的に問われていきます。
Reference(s):
Family sues ChatGPT-maker OpenAI over school shooting in Canada
cgtn.com








