ホームテクノロジーランダムノート【2025年1月本格稼働】産総研のABCI 3.0、NVIDIA H200 6128基で最先端のAI...

【2025年1月本格稼働】産総研のABCI 3.0、NVIDIA H200 6128基で最先端のAI開発を加速

NVIDIA H200 GPU 6128基搭載で、AI研究開発を加速

当サイトではアフィリエイトプログラム(Amazonアソシエイト含む)を利用して商品を紹介しています

産業技術総合研究所(産総研)が開発中の大規模AIクラウド計算システム「ABCI 3.0」が、2025年1月中旬から一般提供を開始する予定です。このシステムは、最新のNVIDIA H200 GPUを6128基搭載し、従来のABCI 2.0と比較して飛躍的な性能向上を実現します。日本の生成AI研究開発を大きく前進させる可能性を秘めたABCI 3.0の詳細について、ご紹介します。

ABCI 3.0の主な特長と性能

ABCI 3.0の最大の特徴は、その圧倒的な計算能力です。NVIDIA H200 SXM5 GPUを1台あたり8基搭載した高性能サーバーを766台導入することで、合計6128基のGPUを備えることになります。これにより、システム全体のピーク性能は以下のように向上します:

  • 半精度演算: 6.2エクサフロップス(従来比約7倍)
  • 単精度演算: 3.0エクサフロップス(従来比約13倍)
  • 倍精度演算: 415ペタフロップス(従来比約7倍)

また、ストレージシステムも大幅に強化されます。QLC(クアッドレベルセル)の高密度フラッシュストレージを採用し、物理容量75PBの大容量・高速ストレージシステムを搭載。これにより、ストレージ容量と理論読み書き性能が従来の2倍以上に向上し、大規模なデータ処理の性能向上が期待できます。

なお、H200 1基あたりの価格は約600万円と言われています。

使いやすさを重視した利用サービス

ABCI 3.0は、高性能だけでなく使いやすさも重視しています。具体的には以下のような機能が提供されます:

  1. AIの開発がすぐに始められるソフトウェアスタック
  2. 学習済みモデルの再利用などを容易にする「AI Hub」サービス
  3. ウェブブラウザからGUIベースで操作できる「Open OnDemand」環境

これらの機能により、研究者や開発者は複雑なセットアップを行うことなく、すぐにAI開発に着手することができます。

ABCI 3.0の利用料金体系

ABCI 3.0では、「標準利用」と「開発加速利用」の2クラス料金制を導入します。「開発加速利用」は、生成AIなどの最先端AI技術の研究開発・評価・人材育成を目的とした利用に対して、標準利用の半額で提供されます。

2024年度の利用料金(計算ノード1台あたり)は以下の通りです:

  • 標準利用:バッチ3300円/時間、予約4950円/時間
  • 開発加速利用:バッチ1650円/時間、予約2475円/時間

なお、2025年3月までは経過措置として、すべての利用に対して「開発加速利用」クラスの料金が適用されます。

ABCI 3.0が日本のAI研究開発にもたらす影響

ABCI 3.0の導入により、日本国内の生成AI開発能力の向上が期待されます。特に以下の点で大きな貢献が見込まれます:

  1. 高度でより使いやすいAI開発環境の提供
  2. 基盤モデル構築時に利用可能なデータ群の整備
  3. AI開発環境および計算インフラ構築ノウハウの国内クラウド事業者との共有

これらの取り組みにより、計算インフラから生成AIのサービス提供に至るまで、幅広い産業の競争力強化につながることが期待されています。

使われているノードは Gigabyt製 G593-SD0-AAX1 と思われる

なお、画像での確認だけですが使われているノードは Gigabyt製 G593-SD0-AAX1と思われます。

Gigabyt G593-SD0-AAX1
Gigabyt G593-SD0-AAX1 HPC/AI Server – 5th/4th Gen Intel Xeon Scalable – 5U DP NVIDIA HGX H100 8-GPU 4-Root Port

G593-SD0-AAX1 スペック

HPC/AI Server – 5th/4th Gen Intel® Xeon® Scalable – 5U DP NVIDIA HGX™ H100 8-GPU 4-Root Port

  • NVIDIA-Certified Systems™ – Data Center Servers
  • NVIDIA HGX™ H100 with 8 x SXM5 GPUs
  • 900GB/s GPU-to-GPU bandwidth with NVIDIA® NVLink® and NVSwitch™
  • Dual 5th/4th Gen Intel® Xeon® Scalable Processors
  • Dual Intel® Xeon® CPU Max Series
  • 8-Channel DDR5 RDIMM, 32 x DIMMs
  • Dual ROM Architecture
  • Compatible with NVIDIA® BlueField®-2 DPUs
  • 2 x 10Gb/s LAN ports via Intel® X710-AT2
  • 8 x 2.5″ Gen5 NVMe/SATA/SAS-4 hot-swap bays
  • 12 x LP PCIe Gen5 x16 slots
  • 1 x LP PCIe Gen4 x16 slot
  • 4+2 3000W 80 PLUS Titanium redundant power supplies

まとめ

ABCI 3.0は、日本の生成AI研究開発を大きく前進させる可能性を秘めた画期的なシステムです。NVIDIA H200 GPU 6128基という圧倒的な計算能力と、使いやすさを重視した設計により、研究者や開発者にとって非常に魅力的な環境となることでしょう。

2025年1月の本格稼働後、ABCI 3.0がどのような革新的な研究成果や技術開発をもたらすのか、大いに注目されます。

今日のおすすめ

今日のおすすめ

コメントを残す

コメントを入力してください
ここにあなたの名前を入力してください