エヌビディア、メタにAIチップ数百万個を複数年供給 CPUも含め拡大へ
エヌビディアは現地時間今週2月17日(火)、メタ・プラットフォームズに対し、現在および将来世代の人工知能(AI)向け半導体を「数百万個」規模で供給する複数年契約を結んだと発表しました。AI計算能力の確保競争が続く中、GPUだけでなくCPU領域でも存在感を強める動きとして注目されます。
何が発表されたのか:BlackwellからRubinへ、CPUもセット
エヌビディアによると、契約には以下が含まれます。
- 現行のAIチップ「Blackwell(ブラックウェル)」
- 今後投入予定の「Rubin(ルービン)」AIチップ
- CPU「Grace(グレース)」および次世代CPU「Vera(ベラ)」の単体導入(スタンドアロン)
契約金額は公表されていません。
ポイントは「GPUの相棒」から「汎用CPU市場」へ
GraceなどのCPUは、Arm Holdingsの技術を基に、エヌビディアが2023年からAI向けGPUの“相棒”として位置づけてきた製品です。今回の発表は、その役割をAI周辺にとどめず、より広い用途へ押し広げたい意図を示した形です。
同社は、AIエージェント(指示に沿ってタスクを自律的に進めるAIの使い方)を動かすような新しい計算需要に加え、データベース運用など「日常的な技術タスク」で使われるプロセッサ市場も視野に入れているとしています。CPU市場ではインテルやAMDが強い存在感を持つだけに、競争軸が広がりそうです。
メタ側の選択肢も増える:自社チップとGoogle TPUの話
興味深いのは、メタがエヌビディア一択で動いているわけではない点です。発表によれば、メタは自社のAIチップ開発も進めており、さらにGoogleのTensor Processing Unit(TPU)をAI用途で利用する可能性について協議しているとされています。
大手プラットフォーム企業が「外部調達(商用チップ)」と「内製(自社チップ)」を併走させる流れが続く中で、エヌビディアは供給規模の大きい長期契約を示しつつ、CPUなど周辺領域も含めた“提案力”で守備範囲を広げようとしている構図です。
消費電力が焦点に:Graceは「半分の電力」の主張
エヌビディアのハイパースケール/HPC(高性能計算)部門を率いるイアン・バック氏は、GraceのCPUがデータベース運用などの一般的なタスクにおいて、場合によっては消費電力を半分にできたと説明しました。次世代のVeraでは、さらに改善が見込まれるとも述べています。
AIの計算需要が急増するほど、電力・冷却・設置スペースがボトルネックになりやすく、単純な性能競争だけではなく「同じ仕事をどれだけ少ない電力で回せるか」が、データセンターの意思決定を左右しやすくなっています。
なぜ今このニュースが効くのか:売上の“集中”と戦略の“拡張”
エヌビディアはメタ向けの売上を明らかにしていませんが、直近の会計四半期では、売上の61%が4社の顧客によって占められたと広く信じられているとされています。こうした背景では、1社あたりの調達方針の変化(内製化や代替チップの採用)が、供給側にとっても無視できないテーマになります。
その中で今回の発表は、メタとの関係を強化するだけでなく、GPU中心のビジネスから、CPUや運用全体に踏み込むことで“どこで選ばれるか”の接点を増やす狙いも読み取れます。
AIの計算基盤は、性能・供給・コスト・電力の綱引きで成り立っています。メタのような大規模事業者が複数の選択肢を持つ一方で、エヌビディアは次世代製品(Rubin)まで含む長期供給を打ち出しました。2026年にかけて、AI半導体の主戦場は「チップの速さ」だけでなく、「どの組み合わせで、どれだけ効率よく回すか」にも広がっていきそうです。
Reference(s):
cgtn.com








