ホームテクノロジーランダムノートGoogle CloudがNVIDIA Blackwell GB200 NVLラックを採用:AIクラ...

Google CloudがNVIDIA Blackwell GB200 NVLラックを採用:AIクラウドプラットフォームの性能が飛躍的に向上

世界第3位のクラウドプロバイダーが最先端のAIハードウェアで競争力強化

当サイトではアフィリエイトプログラム(Amazonアソシエイト含む)を利用して商品を紹介しています

Googleが、自社のクラウドプラットフォーム向けにNVIDIA Blackwell GB200 NVLラックの導入を開始したことを発表しました。この動きは、世界のクラウドシステム市場で12%のシェアを持つGoogle Cloudが、より高速なサービスを提供することで事業拡大を目指す戦略の一環です。

Google CloudはXプラットフォーム上で、液冷式のGB200 NVLラックを搭載した初のサーバーの画像を公開しました。各GB200チップは、1つのGrace CPUと1つのB200 Blackwellベースのデータセンター向けグラフィックスチップを組み合わせており、驚異的な90 TFLOPSのFP64性能を実現しています。

カスタマイズされたGB200 NVLラック:Google Cloudの独自アプローチ

Googleは「カスタム」GB200 NVLラックを使用していると発表しましたが、その詳細な構成については明らかにされていません。標準的なNVIDIA GB200 NVL72ラックは、32個のGrace CPUと72個のB200 GPUを72-GPU NVLinkドメインで接続しています。

Google custom GB200 NVL racks
Google custom GB200 NVL racks

公式のNVIDIA GB200 NVL72ラックでは、各ラックに36個のGrace CPUと72個のBlackwell GPUが搭載されており、最大130 TB/秒の帯域幅を提供します。これにより、1ラックあたり驚異の3240 TFLOPSのFP64性能と最大13.5 TBのHBM3eメモリが実現します。

NVIDIA Blackwellの採用が加速:業界トップ企業の動向

GoogleはGB200 NVLラックやGB200チップを導入する最初の企業ではありません。Microsoftも同様に液冷式のGB200ベースのサーバーを公開しており、台湾のFoxconnは台湾最速のスーパーコンピューターを構築するためにGB200 NVL72ラックの導入を開始しています。

GB200チップの強力な計算性能により、多くの企業が大規模言語モデル(LLM)、医学研究、クラウドストレージ、AIワークロードなど、さまざまな用途のために既存のシステムをアップグレードしています。NVIDIAのBlackwellは現在フル生産体制に入っており、今後さらに多くのシステムがこの業界最先端のAIチップを活用することが予想されます。

まとめ

Google CloudによるNVIDIA Blackwell GB200 NVLラックの採用は、AIクラウドコンピューティングの新時代の幕開けを象徴しています。この最先端技術の導入により、Googleは競争の激しいクラウド市場でのポジションを強化し、より高速で効率的なサービスを顧客に提供することが可能になります。今後、他のクラウドプロバイダーやテクノロジー企業も同様の動きを見せる可能性が高く、AIとクラウドコンピューティングの融合がさらに加速することが期待されます。

SourceGoogle

今日のおすすめ

今日のおすすめ

コメントを残す

コメントを入力してください
ここにあなたの名前を入力してください