OpenAI、新AIモデルの「高い」サイバーリスクを警告
人工知能(AI)の最前線にいるOpenAIが、自らの「次のモデル」がサイバーセキュリティに「高い」リスクをもたらし得ると警告しました。攻撃にも防御にも使える強力なAIをどう扱うかという、いま世界が直面しつつある課題が、あらためて浮かび上がっています。
新モデルがもたらす「高い」サイバーリスクとは
OpenAIは水曜日に公開したブログ投稿で、開発中のAIモデルの能力が急速に向上しており、その結果、サイバーセキュリティ上のリスクが「高い」と評価される段階に近づいていると述べました。
同社は、将来のモデルが、堅牢に守られたシステムに対しても、未公開の脆弱性(ゼロデイ)を突くリモート攻撃用のコードを自力で生成したり、複雑な企業ネットワークや産業システムへの侵入を支援し、現実世界の設備やサービスに影響を与えるような作戦を助ける可能性があるとしています。
ChatGPTの開発元として知られるOpenAIが、こうしたリスクを自ら強調するのは、AIの能力向上がもたらす利便性と、悪用リスクの両方が現実味を帯びていることを示すものです。
防御にも使えるAI、その狙い
一方でOpenAIは、同じ技術がサイバー防御の強化にも役立つと強調しています。能力が高まるにつれ、コード監査や脆弱性の修正など、防御側が行うべき作業をAIが支援できるようになると見ています。
ブログによると、同社は「防御的なサイバーセキュリティタスク向けにモデルを強化し、コード監査や脆弱性のパッチ適用といった作業を防御側がより簡単に実施できるようにするツール」への投資を進めています。攻撃と防御のどちらにも使えうるAIを、どうやって防御側が有利な形で活用するかが焦点になりそうです。
OpenAIがとる当面の対策
具体的なリスク軽減策として、OpenAIは自社のAIサービスに対し、次のような対応を取るとしています。
- アクセス制御:高度な機能にアクセスできるユーザーを限定・管理する
- インフラ強化:AIを動かすサーバーやネットワークの防御を固める
- 出口(エグレス)制御:AIから外部に出ていく情報やコードを監視し、不正な利用を抑える
- モニタリング:利用状況を継続的に監視し、怪しい動きを検知する
これらは従来のサイバーセキュリティの基本でもありますが、AIモデルの能力が上がることで、その重要性はさらに増していきます。
サイバー防御向け「優先アクセス」プログラム
マイクロソフトが支援する同社は、サイバー防御に取り組むユーザーや顧客に向け、強力な機能に段階的にアクセスできる新たなプログラムを近く導入するとしています。
対象となる「資格のある」組織や専門家に対しては、攻撃側ではなく防御側の能力を高めるという目的のもとで、通常よりも高度なAI機能を提供する構想です。どこまで開放し、どこからを制限するかという線引きが注目されます。
「Frontier Risk Council」が担う役割
OpenAIはあわせて、「Frontier Risk Council」と呼ばれる新たな助言組織を立ち上げる計画も明らかにしました。経験豊富なサイバー防御の専門家やセキュリティ実務者が、同社のチームと密接に協力する場になるとされています。
このグループはまずサイバーセキュリティに焦点を当て、その後、より広い「フロンティア技術」のリスク領域へ対象を広げていく見通しです。高度なAIモデルの開発企業が、外部の実務家とどこまで深く連携できるかは、今後のガバナンスのあり方を考えるうえで一つの試金石になりそうです。
進化するAIとリスクの「釣り合い」をどう取るか
AIの能力が上がるほど、その恩恵もリスクも同時に増していきます。OpenAI自身が「高い」サイバーリスクを認め、公表された対策や新組織の構想を示したことは、技術の公開と安全性の確保をどう両立させるかという、より広い議論につながっています。
サイバー攻撃の現場では、すでに自動化やAIの活用が進みつつあります。防御側が同等、もしくはそれ以上のツールを持てるかどうかは、企業や社会全体の安全保障にも直結します。今回の動きは、AIをめぐる国際的なルール作りや、民間企業の自律的なガバナンスをどう組み合わせていくのかを考えるきっかけになりそうです。
Reference(s):
cgtn.com








