MicrosoftナデラCEOが中国AI「DeepSeek」を評価 イノベーションと波紋をどう見るか
米マイクロソフトのサティア・ナデラCEOが、中国発の人工知能(AI)モデル「DeepSeek」を公の場で高く評価し、自社クラウドでの提供も始めました。一方で、同モデルをめぐっては米政界から技術の「盗用」疑惑も出ており、AI競争の新たな火種となっています。
ナデラCEO「本物のイノベーション」「良いニュース」
ナデラCEOは最近行われた四半期決算の説明会で、中国企業が開発したAIモデル「DeepSeek」について「本物のイノベーションがある」「すべて良いニュースだ」と評価しました。
AIの開発サイクルについては、従来のコンピューティング(計算機技術)と「何も変わらない」とも述べ、AIを特別扱いしない長期的な視点を示しました。
マイクロソフトは同じ日に、推論(理由付け)能力を高めたモデル「DeepSeek-R1」を自社のクラウドプラットフォーム上で提供開始しました。R1は自らの思考過程をテキストとして表示できるのが特徴で、利用者がどのように考えてその結論に至ったのかを確認しやすい設計になっています。
一方で浮上する「無断利用」疑惑
マイクロソフトは中国発AIの評価を示す一方で、DeepSeekがOpenAIの出力データを無断で取得した可能性について、調査も進めています。同社はOpenAIの大口投資家でもあり、複雑な立場にあります。
OpenAIはメディアに対し、DeepSeekが自社のサービスを利用してAIモデルを訓練した証拠があると説明しています。このような利用は、OpenAIの利用規約では認められていません。ただし現時点で、OpenAIもマイクロソフトも具体的な証拠は公表していません。
調査が継続するなか、トランプ前米大統領の政権で商務長官候補に指名されているハワード・ラトニック氏は、上院での発言で、この問題に政府として対処する考えを示しました。トランプ氏のAI顧問を務めるデイビッド・サックス氏も、メディアに対し、DeepSeekがOpenAIのモデルから知識を蒸留したというかなりの証拠があると主張しています。
こうした大手企業側の反発について、コーネル大学の講師でテック投資家のルッツ・フィンガー氏は、蒸留は多くの利用規約に違反するだろうが、ビッグテックがそれを非難するのは皮肉、あるいは偽善的だと指摘します。フィンガー氏は、ChatGPTの訓練に米誌フォーブスや米紙ニューヨーク・タイムズのコンテンツが使われたことも、それぞれの利用規約に反していたと述べています。
争点の「ディスティレーション」とは何か
今回の争点となっているディスティレーション(蒸留)とは、より大きく高性能なAIモデルに何度も質問を投げ、その出力結果を学習データとして使うことで、新しいモデルに知識や振る舞いを写し取る手法です。
DeepSeekの公開論文でも蒸留手法は説明されていますが、同社の研究者は、問題となっているのとは異なる使い方をしたとしています。中国・杭州に拠点を置く同社によると、自社の推論モデル「DeepSeek-R1」を大きな教師モデルとして用い、アリババのQwenやメタのLlamaといった他社モデルに推論能力を教え込む形で蒸留を行ったと説明しています。
典型的なディスティレーションの流れは、次のように整理できます。
- 大規模モデルに同じ質問を繰り返し投げる
- その応答を新モデルの学習データとして蓄積する
- 新モデルが類似の応答を出せるようにパラメータを調整する
オープンモデル公開と利用者への意味
DeepSeekは、元のR1モデルと、そこから蒸留されたモデル群を無料でダウンロード可能な形で公開しています。これにより、高性能なコンピューターを持たない利用者でも、ノートPCや一部のスマートフォンといった比較的非力な端末上で、オフラインのままモデルを動かすことができます。
利用者側がモデルを自分の環境で完全に制御できる点も特徴です。クラウド経由のサービスの場合、提供企業側の仕様変更やアクセス制限の影響を受けやすいのに対し、ローカルで動かせるモデルは、プライバシーやカスタマイズの面で利点があります。
一方で、OpenAIのChatGPTでは、中核となるモデルの構造や重みは公開されておらず、有料プランの利用者であっても内部に直接アクセスすることはできません。DeepSeekのアプローチは、この「閉じた巨大モデル」と「開かれたダウンロード可能なモデル」という対比の象徴としても注目を集めています。
AIモデルの「自己紹介」は証拠になるのか
SNS上では、DeepSeekがときどき自分のことをChatGPTだと名乗るケースがあると指摘されており、これをもってデータ盗用の証拠だと見る声もあります。
しかし、他の大規模言語モデルと同様に、DeepSeekも常に事実を語るわけではありません。過去には、米グーグルのチャットボット「Gemini」の旧バージョンが、中国企業バイドゥの対話型AI「Ernieボット」だと誤って自己紹介した例もありましたが、バイドゥ側はグーグルによるデータ盗用を主張してはいません。
このように、モデル自身の発言はしばしば不正確であり、単体で技術的な不正行為の決定的な証拠になるとは限りません。逆に、どの企業のモデルであっても、学習データや利用規約をめぐる透明性の確保が、今後いっそう重要になっていきます。
国際AI競争とルール作りの行方
中国発のDeepSeekを米マイクロソフトが自社クラウドで提供し、その一方で米政界からは厳しい視線が向けられるという構図は、AIが経済・安全保障・産業競争力と密接に結びついたことを象徴しています。
今回の事例は、少なくとも次の三つの問いを投げかけています。
- 他社モデルを用いた学習は、どこまで許容されるべきか
- 利用規約違反と、研究・イノベーションの自由の線引きはどこにあるのか
- オープンに公開されたモデルと、閉じた商用サービスをどう共存させるのか
AIを日常的に使う私たちにとっても、どのサービスがどのようなデータや手法で成り立っているのかを知ることは重要です。DeepSeekをめぐる評価と疑念の両方の動きを追うことは、国際的なAI競争の行方と、そのルールづくりを考える手がかりになります。
Reference(s):
Microsoft CEO says DeepSeek has 'real innovation' and is 'good news'
cgtn.com








