ブロードコムとGoogleが2031年まで契約、カスタムAIchip開発で競争図が変わりつつある
2026年に入り、人工知能(AI)を支えるハードウェアの生態系が静かに、しかし確実に再編されつつあります。ブロードコムは現地時間月曜日、Googleとの間に今後数年にわたるカスタムAIチップおよび関連部品の開発・供給契約を締結したと発表しました。期間は2031年まで及びます。金融条件は非公開ですが、この発表を受け同社株は時間外取引で約3%上昇しました。
同時にブロードコムは、AIスタートアップのAnthropicとも別契約を交わしています。GoogleのAIプロセッサを活用した約3.5ギガワットのAI演算リソースを、2027年よりAnthropicに提供する内容です。複数の大型契約が同時期にまとまった背景には、何が起きているのでしょうか。
カスタム半導体が加速する理由
近年、AIワークロード向けに設計されたGoogleのテンソル・プロセッシング・ユニット(TPU)といったカスタムチップの需要が急伸しています。企業は、高価格帯で知られるNvidiaのグラフィックス処理装置(GPU)に依存しない選択肢を求めています。2025年末時点で既に伝えられていた通り、Googleは自社クラウドにおけるTPUの販促を強化し、AI投資へのリターンを投資家に示すべく注力してきました。この流れが2026年4月現在、長期契約という形で結実したと言えます。
今回の提携が示すポイントは、単なる部品の調達ではなく設計段階からの深い連携です。次世代AIラックに向けた設計最適化や電力効率の向上は、汎用チップでは到達しにくい領域です。クラウド事業者と半導体メーカーの枠組みが変わり、専用化が標準になりつつある兆候といえるでしょう。
Anthropicの急成長とインフラ投資の行方
AIモデルClaudeの開発元であるAnthropicは、今回の契約が米国コンピューティングインフラへの500億ドル規模の投資コミットメントを補強するものだと表明しました。同社の成長速度は目を引きます。2026年に入りClaudeへの需要がさらに加速し、現在のランレート(年率換算)収益は約300億ドルに達しました。2025年末の約90億ドルからわずか数ヶ月で飛躍的な伸びを見せています。
AnthropicはAWSのTrainium、GoogleのTPU、NvidiaのGPUを併用しながら訓練と推論を行っていると説明しています。Amazonは主要なクラウドおよび訓練パートナーの地位を維持していますが、ハードウェアの分散利用はリスク管理でもコスト最適化でも現実的な選択肢となっています。3.5ギガワットという大規模な電力・演算リソースの確保は、今後の大規模言語モデルの訓練規模がさらに拡大することを前提とした準備作業とも言えます。
多様化するAIハードウェアのこれから
今回の動きを整理すると、AI業界のサプライチェーンには以下のような変化が見て取れます。
- 設計から運用までの一体化:クラウド事業者とチップメーカーが長期契約で結び、次世代システムの専用最適化を進める。
- 演算リソースの分散化:単一ベンダーへの依存を避け、複数のハードウェア環境を組み合わせる運用が定着しつつある。
- インフラ投資の実利化フェーズへ:大規模投資が行われたAIプロジェクトが、収益構造と計算リソースの確保において具体的な成果段階に入っている。
技術の進歩が速い分野において、5年以上先を見据えた契約を結ぶリスクとリターンは決して小さくありません。それでも企業がこの道を選ぶのは、AIワークロードが既に単なる研究段階を離れ、企業の基幹インフラとして安定稼働することが前提になりつつあるからでしょう。供給側の専業化と需要側の多様化が交差するこの時期。ハードウェアの競争図を読み解くことは、次の技術展開を測る静かな物差しになるかもしれません。
Reference(s):
Broadcom signs long-term deal to develop Google's custom AI chips
cgtn.com








