AIが生んだ「存在しない判例」 英国裁判所が弁護士に厳しい警告
イングランドの高等法院で、弁護士が生成AIの出した「存在しない判例」を裁判で引用していたことが明らかになりました。AIの誤用が、司法の信頼を揺るがしかねない事態として、国際ニュースとしても注目されています。
英国高裁「AI誤用は司法と信頼への重大な脅威」
イングランドの高等法院(High Court)のビクトリア・シャープ判事は、弁護士が人工知能(AI)によって作り出された架空の判例を裁判資料として提出していたと明らかにし、弁護士が自ら調査の正確さを確認しない場合、刑事訴追の可能性もあると警告しました。
シャープ判事は、こうしたAIの誤用は「司法の運営と、司法制度に対する国民の信頼に深刻な影響を与えうる」と強調しています。今回の判断は、世界各地の司法機関が、裁判手続きにおけるAIの扱いに頭を悩ませている流れの一例といえます。
判決文はシャープ判事が執筆し、ジェレミー・ジョンソン判事も同調しました。両判事は、最近扱った2件の事件で、AIを巡る弁護士の不適切な対応を厳しく批判しています。
事件1:Qatar National Bankを巡る9,000万ポンド訴訟
1件目は、Qatar National Bankとの間で、ファイナンス契約を巡る紛争となった約9,000万ポンド(約1億2,000万ドル)規模の訴訟です。この事件で、ある弁護士が存在しない18件の判例を引用していたことが判明しました。
依頼人であるハマド・アル・ハルーン氏は、一般に公開されているAIツールが生み出した誤った情報を裁判所に提出し、結果的に裁判所を誤導したことについて謝罪しました。また、自身が責任者であり、担当ソリシター(事務弁護士)であるアビド・フサイン氏ではないと述べています。
しかしシャープ判事は、弁護士の側が依頼人に法的調査の正確さを頼っていた構図を「本来とは逆であり、極めて異例」と指摘しました。本来であれば、依頼人が弁護士の専門的助言を信頼する立場であり、その逆になっていたこと自体が問題視された形です。
事件2:ロンドンの住宅トラブルで「架空判例」
2件目は、ロンドンのハリンゲイ区(London Borough of Haringey)を相手取った、ある借家人の住宅に関する訴えです。この事件では、担当バリスター(法廷弁護士)のサラ・フォリー氏が、5件の存在しない判例を引用していたとされています。
フォリー氏はAIを使用したことを否定しましたが、シャープ判事は、何が起きたのかについて「一貫した説明を裁判所に示していない」と述べ、疑念を示しました。
両事件とも、関係する弁護士は、それぞれの専門職の規制機関に付託されることとなりましたが、高等法院としては、さらに踏み込んだ処分は行いませんでした。それでも、裁判所からの「警告」としての意味合いは極めて重いといえます。
虚偽資料の提出は「法廷侮辱」や重大犯罪にも
シャープ判事は、AIに限らず、虚偽の資料をあたかも真実であるかのように裁判所に提出する行為は、「法廷侮辱(コンテンプト・オブ・コート)」にあたり得ると指摘しました。
さらに、最も悪質な事案では「司法妨害(perverting the course of justice)」とみなされる可能性があり、この罪は最長で終身刑が科され得る重大犯罪だと説明しています。AIを安易に利用した結果として虚偽情報が混入した場合でも、その責任は人間の法律家が負うことが前提とされています。
AIは「強力で有用」だが、監督とルールが不可欠
一方でシャープ判事は、AIそのものを全面的に否定しているわけではありません。判決文の中で、AIを「強力なテクノロジー」であり「法律にとっても有用な道具」だと評価しています。
ただし同時に、AIは「リスクと機会の両方をはらむ道具」であり、その使用には適切な監督と、確立された職業倫理・専門基準に沿った規制枠組みが不可欠だと述べました。そうした枠組みがなければ、「司法の運営に対する国民の信頼を維持することはできない」と警鐘を鳴らしています。
日本の読者への示唆:AI時代の「調べもの」の作法
今回の英国の事例は、法律実務に限らず、私たちが日常的にAIツールを利用する際の姿勢にも通じる問題を投げかけています。特に、生成AIがもっともらしい誤情報を生み出すことがある(いわゆる「幻覚」)という特性を踏まえると、次のような基本が重要になりそうです。
- AIの回答をそのまま「事実」とみなさず、原典や公的資料で裏取りをすること
- 仕事や公的な手続きでAIを使った場合、その利用を必要に応じて開示すること
- AIはあくまで叩き台や検索の入口として使い、最終判断は人間が責任を持つこと
- 専門職ほど、職業倫理と既存のルールに照らしてAI利用の線引きを明確にすること
newstomo.comの読者の多くは、仕事や学びの場でAIツールをすでに活用している、あるいはこれから活用しようとしている方だと思います。今回の英国の国際ニュースは、「便利さ」と「信頼性」をどう両立させるかを考えるうえで、ひとつの具体的なケーススタディといえるでしょう。
AIは適切に使えば強力な助っ人になりますが、その結果に責任を負うのは、最終的にはいつも人間である――英国高裁の判断は、その当たり前の原則を改めて突きつけています。
Reference(s):
UK judge warns of risk after lawyers cite fake AI-generated cases
cgtn.com








