人工超知能は人類の脅威か MIT物理学者が語るAI安全と規制 video poster
急速に進化する人工知能は、人類にとって歴史的なチャンスであると同時に、制御不能な人工超知能というリスクもはらんでいます。ポルトガルのリスボンで開かれたWeb Summitで、米マサチューセッツ工科大学(MIT)の物理学者マックス・テグマーク氏は、その危機感と対処法を語りました。
リスボンのWeb Summitで鳴らされた警鐘
テグマーク氏は、現在の人工知能(AI)の多くは画像認識や文章生成など、特定の用途に特化した「狭いAI」にとどまっていると説明しました。一方で研究者や企業は、人間のように幅広い課題に取り組める汎用人工知能(AGI)、さらには人間の知性をはるかに超える人工超知能の開発を競い合っています。
彼が特に懸念するのは、高度な知性と幅広い能力、そして物理的な自律性をあわせ持つ機械です。そのようなシステムが登場すれば、人間がその行動を完全に制御できなくなるおそれがあると指摘しました。
他のハイリスク技術と比べて安全基準がないAI
テグマーク氏は、航空機、医薬品、原子力といった高リスク技術は、厳しい試験と認可を経なければ一般に提供できないのに対し、AIには同等の安全基準がほとんど存在しないと強調しました。
- 航空業界では、新型機の導入前に長期のテストと認証が義務づけられている
- 医療分野では、新薬や医療機器に対して臨床試験などのプロセスが用意されている
- しかしAIシステムは、企業の判断だけで世界中のユーザーに一斉に公開されることが一般的になっている
だからこそ各国政府は、AIに対してもこれらと同じ当たり前の安全確認を適用すべきだと訴えました。特に、人間の監督なしに自律的に行動できるようなシステムには、事前のテストと制限が不可欠だとしています。
まだ間に合うAIとの付き合い方
とはいえ、テグマーク氏は悲観一色ではありません。世論の関心が高まり、国境を超えて多くの専門家が人間の制御を離れる可能性のあるAIに対する規制やルールづくりを求めていることを、希望の兆しとして挙げました。
彼によれば、社会が適切なタイミングで行動すれば、AIは人類にとって大きな恩恵をもたらすことができます。特に科学研究や医療の分野では、難病の解明や新しい治療法の開発など、これまで不可能だったブレイクスルーが期待できるといいます。
重要なのは、利便性と効率だけを追いかけるのではなく、どこまでを機械に任せ、どこから先は人間が責任を持つべきかという線引きを、社会全体で議論しながら進めることだと示唆しました。
AI安全を訴え続けるテグマーク氏
テグマーク氏は、2014年にAI安全をめぐる研究と政策を掲げる団体Future Life Instituteを設立し、企業や研究者に対して責任あるAI開発を呼びかけてきました。現在も、各国の政策決定者に対して、強力なAIシステムの開発に一定のルールと透明性を求めています。
リスボンでの今回のメッセージは、急速に普及するAIを前に、私たち一人ひとりが便利さと安全のバランスをどう考えるかを問いかける内容でもあります。人工超知能のリスクを現実のものとしないために、どのようなルールや価値観が必要なのか。こうした議論は、今後さらに本格化していくとみられます。
Reference(s):
cgtn.com








