新調査:AIアシスタントのニュース回答、約半数に重大な誤り
欧州放送連合(EBU)とBBCが最近発表した国際調査で、主要なAIアシスタントがニュースに関する質問に答える際、約半数の回答で重大な問題が見つかったことが分かりました。AIでニュースをチェックする習慣が広がる中、その「誤り」がどれほど日常的に起きているのかを示す結果です。
3,000件の回答を分析 45%に「重大な問題」
今回の調査は、ニュースについての質問に対するAIアシスタントの回答3,000件を分析したものです。対象となったのは、音声やテキストで指示を理解し、ユーザーの代わりに検索や要約を行う代表的なAIアシスタントで、ChatGPT、Copilot、Gemini、Perplexityなどが含まれます。
調査チームは、以下の点を中心に14言語で回答をチェックしました。
- 事実の正確さ
- 情報源(ソース)の明示と妥当性
- 意見と事実をきちんと区別できているか
その結果、調査対象となった回答のうち45%に少なくとも1つの「重大な問題」があり、より広く見ると81%の回答に何らかの問題が含まれていたとされています。
3分の1に深刻なソースの誤り Geminiで特に顕著
特に目立ったのが、ニュースの「出どころ」に関する誤りでした。全体の約3分の1の回答には、情報源が欠けていたり、ミスリーディング(人を誤解させる)な形で引用されていたり、出典そのものが間違っているといった、深刻なソースの問題が含まれていたといいます。
なかでも、GoogleのAIアシスタントであるGeminiの回答の約72%で重大なソースの問題が見つかり、他のアシスタント(いずれも25%未満)と比べて突出していたと報告されています。
20%が事実誤認 「使い捨て電子たばこ」やローマ教皇に関する誤りも
調査によると、全AIアシスタントの20%の回答には事実の誤りが含まれていました。その多くは、すでに状況が変化しているにもかかわらず古い情報のまま答えてしまう「情報の古さ」に起因するものだったとされています。
具体例としては、Geminiが使い捨て電子たばこ(ディスポーザブル・ベイプ)に関する法律改正の内容を誤って説明したケースや、ChatGPTがフランシスコ前ローマ教皇の死後数カ月が経過しても、なお「現職の教皇」として答え続けていたケースなどが挙げられました。
ニュース検索の「入り口」がAIに変わるリスク
この調査には、フランス、ドイツ、スペイン、ウクライナ、英国、アメリカなど18カ国の22の公共メディアが参加しました。欧州放送連合(EBU)は、AIアシスタントがニュースの情報収集において、従来の検索エンジンに代わる「入り口」になりつつある現状に強い懸念を示しています。
EBUのジャン・フィリップ・ド・テンダー・メディアディレクターは声明で、「人々が何を信じてよいのか分からなくなると、何も信じなくなってしまう。そのことが、民主的な参加を遠ざけてしまうおそれがある」と警告しました。
若い世代ほどAIでニュースを読む傾向
ロイター・ジャーナリズム研究所の「Digital News Report 2025」によると、オンラインでニュースを利用する人全体の7%がAIアシスタントをニュースの情報源として使っており、25歳未満ではその割合が15%に達しています。
まだ利用者全体から見れば少数派ですが、特に若い世代にとって、AIアシスタントはニュースを知るための重要な窓口になりつつあることがうかがえます。
AI企業の対応と「幻覚」問題
今回名指しされた各社は、これまでもAIの誤情報リスクに言及してきました。GoogleのGeminiは公式サイトで、ユーザーからのフィードバックを歓迎し、プラットフォームを継続的に改善していく姿勢を示しています。
OpenAIとMicrosoftも、AIが自信を持って誤った情報を生成してしまう「幻覚(ハルシネーション)」は解決すべき課題だとこれまでに表明してきました。一方で、Perplexityは自社サイト上で、「Deep Research」と呼ばれるモードの事実面の正確性は93.9%に達するとしています。
今回の新しい報告書は、こうした企業の取り組みを前提としながらも、ニュース関連の質問に答える際の精度と透明性をさらに高める必要があるとし、AI企業に対して説明責任を一層強く求めています。
私たちはどう使うべきか――3つの視点
では、ニュース消費者である私たちはAIアシスタントとどう付き合えばよいのでしょうか。調査結果を踏まえると、少なくとも次の3点を意識しておくことが重要になりそうです。
- 「一次情報」に当たる習慣を持つ
AIが示したニュースの概要だけでなく、可能であれば元の記事や公式発表に目を通すことで、誤りや抜け漏れに気づきやすくなります。 - ソースの有無と中身を見る
情報源が明示されているかどうか、どのメディアや機関を引用しているのかに注意を向けることで、回答の信頼度をある程度見極めることができます。 - AIの回答を「結論」ではなく「出発点」と捉える
AIアシスタントの答えは、ニュースを理解するための入り口にとどめ、その後に複数のニュースソースで裏取りをするという姿勢が欠かせません。
AIアシスタントは、膨大な情報を短時間で整理して見せてくれる便利なツールです。ただし、今回の調査が示すように、その「要約」をそのまま真実として受け取るにはまだリスクがあります。ニュースを読む私たち自身が、一歩距離を置いて使いこなせるかどうかが、これからの情報環境を左右していくのかもしれません。
Reference(s):
New research shows AI assistants make widespread errors about the news
cgtn.com








