AnthropicがGoogleのAIチップを最大100万個利用へ Claude訓練で巨額投資
米AI企業Anthropicが、Googleとの提携を拡大し、同社のAI専用チップであるTPU(テンソル・プロセッシング・ユニット)を最大100万個まで利用できる新たな合意を結びました。対価は数百億ドル(数兆円規模)とされ、チャットボットClaudeなど大規模言語モデル(LLM)の次世代版を訓練するために、2026年から1ギガワット超の計算能力を確保する計画です。
生成AIをめぐる国際ニュースとして、AIモデルそのものだけでなく、その裏側で動く膨大な「計算インフラ」の争奪戦が一段と激しくなっていることを示す動きといえます。
AnthropicとGoogleの新たな提携とは
木曜日に発表された新たな合意によると、Anthropicは2026年にかけて順次稼働する、1ギガワットを超える計算能力にアクセスできるようになります。これらは、Googleが自社開発してきたTPUを使ったインフラで、従来は主に社内利用が中心でした。
Alphabet傘下のGoogleは、TPUをGoogle Cloud上でレンタル可能なサービスとして提供しており、供給が逼迫しているNvidia製チップの代替手段として注目されています。今回の合意では、TPUの大規模利用に加えて、Google Cloudの追加クラウドサービスもAnthropicに提供されます。
100万個のAIチップと「1ギガワットの計算能力」とは
今回の国際ニュースで目を引くのは「最大100万個のAIチップ」と「1ギガワット超の計算能力」というスケールです。これが何を意味するのか、簡単に整理してみます。
- 報道によると、Anthropicが利用するAIチップは最大100万個に達し、契約規模は数百億ドル(tens of billions of dollars)とされています。
- 業界関係者の見立てでは、1ギガワットのコンピューティング設備を整えるには、およそ500億ドル規模のコストがかかるとされています。
- 競合のOpenAIは、約26ギガワットの計算能力を確保する複数の契約を結んでおり、その総額は1兆ドル超に達する可能性があると伝えられています。
- 26ギガワットという規模は、約2,000万戸の米国の家庭をまかなえる電力に相当すると説明されています。
もちろん、ここで言う「ギガワット」は発電所そのものではなく、AIモデルの訓練や提供に使われるコンピューター群が消費する電力規模をイメージしたものです。ただ、それほどまでにAIが巨大なエネルギーと設備を必要とする技術になっている、という現実を示しています。
なぜAnthropicはTPUを選んだのか
Anthropicは、GoogleのTPUを選んだ理由として、価格性能比(どれだけのコストでどれだけの計算ができるか)と効率性、そして既にClaudeの訓練と提供でTPUを使ってきた経験を挙げています。
ポイントを整理すると次のようになります。
- 価格性能比:同じ予算でより多くの計算資源を確保できること
- 効率性:電力あたりの計算能力が高く、大規模モデルを継続的に運用しやすいこと
- 開発効率:既存のTPU向けソフトウェアやノウハウを再利用できること
一方で、NvidiaのGPUは依然としてAI開発の「デファクトスタンダード」ですが、世界的な需要の高まりから供給制約が続いています。その中で、TPUはGoogle Cloudを通じて使える別の有力な選択肢として位置づけられています。
OpenAIとの比較で見える「インフラ競争」
今回のAnthropicとGoogleの合意は、ライバル企業OpenAIの動きと比較すると、生成AIビジネスがどこに向かっているのかが見えやすくなります。
- Anthropic:GoogleのTPUを最大100万個、1ギガワット超の計算能力でClaudeの次世代モデルを訓練
- OpenAI:NvidiaのGPUやAMDのAIチップを活用し、約26ギガワットの計算能力を確保する複数の契約を締結
いずれの企業も、人間の知能に匹敵、あるいはそれを超えることを目指す高度なAIシステムの開発を見据え、長期的な計算インフラを押さえる動きを加速させています。チップ需要は「飽くなきもの」と表現されるほどで、インフラ確保そのものが競争力の源泉となりつつあります。
Claudeが重視する「安全」と企業向け活用
Anthropicは、自社のClaudeシリーズについて「AIの安全性」と企業向けの活用を重視しているとしています。Claudeは、テキスト生成や要約、プログラミング支援など、多様な業務での利用を想定した大規模言語モデルです。
特に、コードを書く際に対話しながら開発を進める「バイブ・コーディング」と呼ばれるスタイルを掲げるスタートアップCursorなど、開発者向けツールでもClaudeのモデルが使われています。こうしたサービスの裏側でも、大規模で安定した計算インフラが不可欠です。
今回の合意によってAnthropicは、より大きく、より安全性に配慮したモデルを継続的に訓練し、企業のニーズに合わせて改善していく余地を広げようとしています。
日本の読者・企業にとっての意味
この国際ニュースは、一見すると米国のAI企業どうしの話に見えますが、日本の読者や企業にとっても無関係ではありません。
- クラウド選択肢の拡大:Google Cloud経由でClaudeなどのモデルを利用する日本企業や開発者にとって、背後の計算インフラが強化されることで、より安定したサービス提供が期待できます。
- コストと性能:価格性能比の高いAIインフラが整うことで、中堅企業やスタートアップでも生成AIを業務に取り入れやすくなる可能性があります。
- 安全なAIの重要性:安全性を重視するAnthropicの姿勢は、日本でも議論が進むAIガバナンスや企業のリスク管理を考えるうえで、一つの参考モデルになり得ます。
生成AIをめぐる競争は、モデルの「頭の良さ」だけではなく、その裏側でどれだけ大規模かつ効率的なインフラを確保できるかという段階に入りつつあります。AnthropicとGoogleの今回の合意は、その最前線で何が起きているのかを映し出す象徴的な出来事と言えるでしょう。
Reference(s):
cgtn.com








