DDN「AI400X3」が切り拓くAIストレージの新基準

急速に進化する人工知能(AI)の世界では、求められるのは単なる計算能力ではありません。むしろ、最新ワークロードを動かすためには、性能・効率・拡張性が同時に必要です。そこでDDNは、新世代ストレージ「AI400X3」を発表しました。AI400X3は独自のEXAScaler®を搭載し、MLPerf® Storage v2.0で優れた成果を証明しています。小型かつ省エネ設計でありながら、高密度性能を提供し、AI時代のスタンダードです。


なぜAIストレージが必要か

医療、金融、自動運転など、多くの分野でAI活用が進んでいます。そして、その基盤となるのが堅牢なストレージです。なぜなら、LLMやコンピュータビジョンは大量データを扱い、高速かつ低レイテンシーなアクセスを前提に動くからです。もし性能が不足すれば、GPUが止まり、学習が遅れるだけでなくコスト増も招きます。


AI400X3の設計思想 ― 効率と持続可能性

AI400X3はこの課題に正面から対応します。2Uサイズの小型筐体ながら、データセンターの設置面積や消費電力を抑制。しかも高性能を発揮します。そのため、スタートアップから大企業まで、効率的な拡張を可能にします。

さらに、従来型のように大量の機材を必要とせず、業界随一の性能密度を実現しました。結果として、企業は持続可能性と効率性を両立できます。これはDDNが掲げる「責任あるAI拡張」というミッションにも直結しています。


MLPerf Storageで示された実力

AI向けストレージ性能を測る標準ベンチマークがMLPerf Storageです。単一ノードから大規模環境まで、現実に近い負荷を再現して評価します。AI400X3はこの試験で極めて優れた結果を残し、汎用性と処理能力の高さを裏づけました。


シングルノード性能 ― 小型でも強力

AI導入を始める組織にとって、AI400X3は理想的です。
テスト結果は以下の通りです:

  • 最高性能密度:2U・2400WでCosmoflowは52基、ResNet50は208基のH100 GPUをシミュレート。

  • 超高速I/O:読み取り30.6 GB/s、書き込み15.3 GB/s。Llama3-8bモデルもロード3.4秒・保存7.7秒で完了。

つまり、少ない投資でも十分な成果を得られます。拡張を狙うチームにとって大きな武器となるでしょう。


マルチノード性能 ― 限界を超える拡張性

一方で、大規模モデルを扱う企業にはマルチノード性能が重要です。AI400X3は以下を達成しました:

  • 圧倒的スループット:Unet3D H100学習で120GB/s超を実現。

  • 比類なき拡張性:ResNet50で640基、Cosmoflowで135基のH100 GPUを支援。前年比で2倍に拡大。

これにより、GPU群をフル稼働させつつ、学習を短縮し、安定性を高め、総コストを削減できます。


信頼されるパートナーとしてのDDN

数値以上に重要なのは信頼性です。2016年以来、NVIDIAはAIクラスターにDDNのみを採用しています。研究機関から世界的企業まで、DDNはAIを止めない基盤を提供し続けています。

AI400X3は単なる製品ではありません。ボトルネックを排除し、学習を加速し、運用効率を高めます。AI時代の競争力を支えるソリューションです。


次のステップ ― DDNを体験する

最新情報:LinkedIn・X(旧Twitter)・YouTubeにて発信中

公開日時