NVIDIA(エヌビディア)が次世代のAI計算向けGPUとして開発中のBlackwell Ultraシリーズについて、新たな情報が明らかになりました。当初B200シリーズとして計画されていたこの製品ラインは、B300シリーズとして生まれ変わり、より高度なHBM3e仕様と革新的な製造技術を採用することで、AI計算能力の新たな基準を打ち立てようとしています。
TrendForceの報告によると、NVIDIAは次世代AI向けGPUの名称をB300シリーズに変更し、製品ラインアップを再構築する予定です。この変更により、従来のB200 Ultra AIアクセラレータとGB200 Ultra AIサーバーは、それぞれB300とGB300として刷新されることになります。同様に、B200Aシリーズも、B300A “Blackwell Ultra”として再設計されるとのことです。
B300シリーズ:アーキテクチャの進化を反映した新命名戦略
NVIDIAがこの命名変更を決定した理由は明確にされていませんが、B300シリーズで導入される予定のアーキテクチャの大幅な変更を反映させるためではないかと推測されています。特筆すべきは、当初計画されていたB200Aシリーズが市場投入されない可能性が高いことです。代わりに、B300Aシリーズが企業向けの中核製品として位置付けられ、AI計算能力の構築に慎重なアプローチを取る企業クライアントをターゲットにするものと考えられます。
現行のBlackwellポートフォリオは、驚異的な需要に支えられ、今後12ヶ月間の予約が埋まっている状況です。NVIDIAは来四半期に数十億ドル(数千億円)の収益を見込んでおり、2025年初頭にはさらなる成長が期待されています。
B300 Blackwell Ultra:多様な構成で幅広いニーズに対応
NVIDIA B300 Blackwell Ultraシリーズは、HGX、MGX、NVLなど多様な構成で展開される予定です。特に、NVL-36とNVL72は、サーバーやデータセンター向けの最高性能モデルとして注目されています。これらのチップには、最大288GB(ギガバイト)のHBM3eメモリが搭載され、144GB構成のモデルも用意される見込みです。
競合他社との比較では、AMDが最近発表したMI325X GPUが256GB容量を提供し、2025年後半に発売予定のMI350Xも288GB容量を目指しているとされています。このことから、NVIDIAはメモリ容量においても業界トップレベルの仕様を維持しようとしていることがわかります。
革新的技術の採用:12-Hi HBM3eメモリとTSMC CoWoS-L
B300 “Blackwell Ultra” AI製品の市場投入時期は、2025年第2四半期から第4四半期と予想されています。NVIDIAは、この新シリーズに12-Hi HBM3eメモリとTSMC社のCoWoS-L(Chip-on-Wafer-on-Substrate with Large Interposer)技術を採用することで、大幅な性能向上を実現しようとしています。
12-Hi HBM3eメモリは、従来のHBM3メモリよりも高い積層構造を持ち、より大容量かつ高速なメモリアクセスを可能にします。一方、CoWoS-L技術は、大型のインターポーザーを使用することで、より多くのダイを1つのパッケージに統合できるようになり、システム全体の性能と効率を向上させることが期待されています。
これらの革新的な技術の採用により、B300シリーズは前世代比で大幅な性能向上を達成し、AI計算およびデータ処理能力の新たな基準を確立する可能性があります。
まとめ
NVIDIA B300 “Blackwell Ultra”シリーズは、AI計算能力の次なる進化を象徴する製品ラインとして期待されています。12-Hi HBM3eメモリとTSMC CoWoS-L技術の採用により、前例のない計算能力と効率性を実現し、AIの発展に大きく貢献することが予想されます。2025年の発売に向けて、業界の注目が集まる中、NVIDIAがどのような革新的な機能や性能を披露するのか、今後の発表が待たれるところです。