Googleが、自社のクラウドプラットフォーム向けにNVIDIA Blackwell GB200 NVLラックの導入を開始したことを発表しました。この動きは、世界のクラウドシステム市場で12%のシェアを持つGoogle Cloudが、より高速なサービスを提供することで事業拡大を目指す戦略の一環です。
Google CloudはXプラットフォーム上で、液冷式のGB200 NVLラックを搭載した初のサーバーの画像を公開しました。各GB200チップは、1つのGrace CPUと1つのB200 Blackwellベースのデータセンター向けグラフィックスチップを組み合わせており、驚異的な90 TFLOPSのFP64性能を実現しています。
カスタマイズされたGB200 NVLラック:Google Cloudの独自アプローチ
Googleは「カスタム」GB200 NVLラックを使用していると発表しましたが、その詳細な構成については明らかにされていません。標準的なNVIDIA GB200 NVL72ラックは、32個のGrace CPUと72個のB200 GPUを72-GPU NVLinkドメインで接続しています。
公式のNVIDIA GB200 NVL72ラックでは、各ラックに36個のGrace CPUと72個のBlackwell GPUが搭載されており、最大130 TB/秒の帯域幅を提供します。これにより、1ラックあたり驚異の3240 TFLOPSのFP64性能と最大13.5 TBのHBM3eメモリが実現します。
NVIDIA Blackwellの採用が加速:業界トップ企業の動向
GoogleはGB200 NVLラックやGB200チップを導入する最初の企業ではありません。Microsoftも同様に液冷式のGB200ベースのサーバーを公開しており、台湾のFoxconnは台湾最速のスーパーコンピューターを構築するためにGB200 NVL72ラックの導入を開始しています。
GB200チップの強力な計算性能により、多くの企業が大規模言語モデル(LLM)、医学研究、クラウドストレージ、AIワークロードなど、さまざまな用途のために既存のシステムをアップグレードしています。NVIDIAのBlackwellは現在フル生産体制に入っており、今後さらに多くのシステムがこの業界最先端のAIチップを活用することが予想されます。
まとめ
Google CloudによるNVIDIA Blackwell GB200 NVLラックの採用は、AIクラウドコンピューティングの新時代の幕開けを象徴しています。この最先端技術の導入により、Googleは競争の激しいクラウド市場でのポジションを強化し、より高速で効率的なサービスを顧客に提供することが可能になります。今後、他のクラウドプロバイダーやテクノロジー企業も同様の動きを見せる可能性が高く、AIとクラウドコンピューティングの融合がさらに加速することが期待されます。