短期間で導入可能なスーパーコンピューティング規模のAIインフラストラクチャ
この記事は、DDN.comに掲載の "Instantly Deploying End-to-End AI Infrastructure at Supercomputing Scale " の日本語版です。
短期間で導入可能なスーパーコンピューティング規模のAIインフラストラクチャ
Kurt Kuckein
Vice President, Marketing
2019年11月18日
従来、極めて大規模なスーパーコンピューティングシステムの導入は数カ月を要するプロセスで、利用可能なリソースから最大限のパフォーマンスを引き出すために、広範囲なカスタマイズと調整が必要でした。NVIDIAが最近発表したNVIDIA DGX SuperPODインフラストラクチャは、複雑なAIモデリングをはじめ、非常に大規模なマルチノード性能が必要な、HPC のワークロードの世界を変える、画期的なものです。ハイパフォーマンス環境へエンドツーエンドに導入するNVIDIA DGX-2 システムのパワーと、DDN A3Iアプライアンスの並列型データ配信システムとの組み合わせを実現するため、DDN とNVIDIA はさまざまな取り組みを進めてきました。これによりシステムの導入も管理も容易になるからです。
DGX SuperPOD は、Mellanox InfinibandTM ネットワークで64台のNVIDIA DGX-2システムを統合するリファレンスアーキテクチャとDDN AI400XTMを実装しており、これにより共有スーパーコンピューティング インフラストラクチャを構成します。これは研究機関だけでなく、データサイエンスの大規模な探求が求められる業種でも役立ちます。
バックエンドに極めて高効率のストレージを備えることで、DDN は簡素化と、導入の可能性を高めるという使命を果たします。
現在、大量のデータセットを伴うAIモデルの大規模導入に取り組む企業は、すぐに使用することが可能であり、カスタマイズをほとんど必要とせずにビジネスにイノベーションをもたらすことのできる手段を活用できます。IT部門は、サイロ化していたデータサイエンスのシステムを組織内で統合できます。また、AI400Xに実装しているEXA5データ管理ソリューションで使用可能なセキュリティ、マルチテナント、モニタリングなどの機能により、顧客は信頼性の高いハイパフォーマンスのデータインフラストラクチャを手に入れることができ、同時に部門ごとの分離と他部門にまたがるアクセス制御も実現できます。
この取り組みは、まだ終わっていません。当社は引き続きNVIDIAと協業し、I/O効率をなお一層向上させる取り組みを進めます。最近発表されたNVIDIA Magnum IOツールは、AIとディープラーニングのワークロードのさらなる合理化に役立ちます。GPUDirect Storageでは、計算システムでCPUを経由せず、ストレージから直接GPUにデータを転送します。DDNとNVIDIAが実施した初期のテストでは、極めて負荷の高いアプリケーションにおいても、20倍の高速化が可能であることが明らかになっています。最適なAIインフラストラクチャを目指す当社からの最新情報を、今後もお届けしてまいります。
[関連情報]
NVIDIA DGX SuperPODホワイトペーパー