AIゴッドファーザーが警告 30年以内に人類絶滅10〜20%のリスク video poster
人工知能(AI)のゴッドファーザーと呼ばれる計算機科学者ジェフリー・ヒントン氏が、今後30年以内にAIが人類の存続を終わらせてしまう可能性を「10〜20%」と見積もる発言をしました。AIの急速な進歩が続く2025年現在、この数字をどう受け止めるべきかが国際ニュースとして議論を呼んでいます。
AI「ゴッドファーザー」が見ている未来
ヒントン氏は、英国とカナダにルーツを持つ計算機科学者で、深層学習(ディープラーニング)の先駆者として広く知られています。トロント大学の名誉教授でもあり、その業績から人工知能のゴッドファーザーと呼ばれてきました。
今回、ヒントン氏は英国の公共放送BBCのラジオ番組、BBC Radio 4 のTodayでのインタビューに応じ、AI開発のペースが当初の想定より「はるかに速い」と語りました。そのうえで、人類にとってのリスク評価を見直し、AIが人類絶滅を引き起こす可能性を「10〜20%」とする見方を示しています。
「10〜20%」に引き上げられた絶滅リスク
ヒントン氏は以前、人類に壊滅的な結果をもたらすAIのリスクを、およそ10%と見積もっていました。しかし今回のインタビューでは、今後30年以内にAIが人類の絶滅につながる可能性は「10〜20%」に達すると述べ、評価を引き上げています。
日常生活での危険を考えると10%や20%は決して高い数字には見えないかもしれませんが、「人類が存続できるかどうか」というレベルの事態に対しては、極めて重い数字です。ヒントン氏の発言は、AIリスクに関する国際的な議論をさらに加速させるものとなっています。
より賢い存在を人間は制御できるのか
インタビューの中でヒントン氏は、「私たちは自分たちより賢いものを相手にした経験がほとんどない」と指摘し、根本的な不安を示しました。より知能の高い存在を、知能の低い存在がコントロールできる例は非常に少ないというのです。
ヒントン氏が挙げた例は、母親と赤ちゃんの関係です。赤ちゃんは母親より知能が低いにもかかわらず、泣くことなどを通じて母親の行動をある程度コントロールできます。ただし、これは進化が特別に仕組みを作り上げた、極めて例外的なケースだと説明しています。
人類がこれまで直面したことのない、より賢い人工の存在をどのように制御するのか。この問いが、ヒントン氏にとってAIリスクの核心にあります。
AIの知能は人間とどこが違うのか
ヒントン氏は、現在開発されているAIの知能は、人間の知能とは質的に違うと強調します。イメージとして示したのは、1万人の人がいて、そのうち一人が何かを学ぶと、残り全員が即座に同じことを知る世界です。
AIやチャットボットは、大量のデータから学習し、学んだ内容を瞬時に共有できます。そのため、「どれほど博識な一人の人間よりもはるかに多くのことを知っている」ように見えるのだと説明しています。
ポイントを整理すると、次のようになります。
- 一つのAIが学んだことを、他のAIがほぼそのまま活用できる
- 膨大なデータにアクセスできるため、個々の人間よりも広範な知識を獲得しうる
- この結果、知識量という面では、人間を大きく上回る可能性がある
こうした性質を持つAIがさらに高度化したとき、人間は本当にその振る舞いを理解し、制御し続けられるのかという懸念がにじみます。
「人間より賢いAI」が生まれるとき
ヒントン氏は、自身のキャリアを振り返りながら、「ここまで早く現在のレベルに達するとは思っていなかった」と語っています。当初は、いつかは到達するにしてももっと先だと考えていたといいます。
しかし今では、「今後おそらく20年以内に、人間より賢いAIが開発される」と考える専門家が多数派になっていると指摘します。そのうえで、「それは非常に恐ろしいことだ」と率直な不安を表明しました。
ここで念頭にあるのが、人工汎用知能、いわゆるAGIです。これは特定のタスクに特化したAIではなく、人間と同じように幅広い分野で柔軟に問題を解決できるタイプのAIを指します。ヒントン氏は、もし人間より賢いAGIが実現すれば、次のようなリスクがあると警告します。
- AIが人間の制御を徐々に逃れ、自律的に行動するようになる
- 悪意のある主体がAIを悪用し、大規模な被害を引き起こす
- 最悪の場合、人類の存続そのものが脅かされる「存在論的リスク」になりうる
市場任せでは安全は守れないという懸念
AI開発のスピードについて、ヒントン氏は「非常に、とても速い」と強調し、そのペースが自らの予想を大きく上回っていると認めています。そのうえで、「見えざる手」、つまり市場の自律的な調整機能に安全性を委ねることには限界があるとしました。
大規模なAI開発を進める企業にとって、利益の追求は強いインセンティブになります。しかしヒントン氏は、「大企業の利益動機だけに任せても、安全に配慮した開発が十分に行われるとは限らない」と警鐘を鳴らします。
そこで重要になるのが政府による規制だといいます。ヒントン氏は、「大企業により多くの安全研究を行わせることができるのは政府の規制だけだ」と述べ、次のような方向性を示唆しています。
- AIの開発や運用に際して、安全性に関する最低限のルールを設ける
- リスク評価や検証を義務づける仕組みを整える
- 高リスクな用途には追加の監督や制約を課すことを検討する
具体的な制度設計は各国や地域によって異なりますが、「規制なしでの放任」ではなく、「安全を前提にした競争とイノベーション」にどうつなげるかが今後の大きな論点になりそうです。
私たちはこの警告をどう受け止めるか
人類絶滅の可能性を10〜20%と聞くと、「さすがに大げさではないか」と感じる人もいれば、「それだけの確率があるなら真剣に備えるべきだ」と考える人もいるでしょう。ヒントン氏の発言は、AIの是非を二択で迫るというより、「どのリスクをどこまで許容するのか」という問いを突きつけています。
ニュースを追ううえで、次のような視点を持つことが役に立ちそうです。
- AIのメリット(生産性向上や新しいサービス)と、社会全体のリスクはどのようなバランスで語られているか
- 企業任せにせず、安全性や透明性について政府や研究者がどのような役割を果たそうとしているか
- 自分自身の仕事や生活の中で、AIにどこまで依存するのか、どこに人間の判断を残すのか
ヒントン氏は、AIの急速な進歩を支えてきた中心人物の一人です。その本人が、ある程度の可能性で「人類の終わり」まで視野に入れた議論を求めているという事実は、タイムラインの細部がどうであれ重く受け止める必要があります。
AIが日常のツールとして浸透しつつある今こそ、「便利さ」と「安全さ」の両方を見据えた議論が求められています。ヒントン氏の警告は、AIを恐れるためではなく、賢く付き合うための出発点として読むことができそうです。
Reference(s):
30 years left? AI 'Godfather' warns the technology may end humanity
cgtn.com








