productNVIDIA
DGX H100
AIインフラストラクチャの金字塔
DGX H100

NVIDIA DGX H100は、AIソフトウェアと特定用途向けのハードウェアを統合した、AI開発のためのプラットフォームです。NVIDIA H100 TensorコアGPUを搭載し、複雑なAIの課題を解決します。
特長
人工知能(AI)はビジネスにおける困難な課題を、解決するために役立つ手段になりました。
顧客サービスの改善、サプライチェーンの最適化、ビジネスインテリジェンスの抽出、最先端の製品やサービスの設計など、ほぼすべての業界の組織の課題に対し、AIはイノベーションを実現する包括的なメカニズムを提供します。AIインフラの先駆者となったNVIDIA DGX ™システムは、このような重要な概念を実現するための最も強力で完結したAIプラットフォームを提供します。
NVIDIA DGX H100はビジネスのイノベーションと最適化を支援します。NVIDIAにおける、伝説的なDGXシステムとNVIDIA DGX SuperPODの構築の歴史において、最新モデルであるNVIDIA DGX H100は、画期的なNVIDIA H100 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化されたスケーラブルなプラットフォームの提供により、自然言語処理、レコメンデーションシステム、データ分析など、企業のさまざまな革新的課題解決を支援します。NVIDIA DGX H100は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題をAIで解決するために必要なパフォーマンスを実現します。
AIのセンターオブエクセレンスの基礎
AIは、科学とビジネスの間にあった溝を埋めました。AIはすでに実験の域を脱し、大小の企業がイノベーションの推進や事業の最適化のために、日々利用するようになりました。NVIDIA DGX H100は、AIに特化した世界初のインフラの第4世代であり、企業のAI中核拠点の基礎となるように設計されています。すべてを最適化したハードウェアとソフトウェアのプラットフォームに、新しい各種NVIDIA AIソフトウェアソリューションのフルサポート、充実したサードパーティサポートエコシステム、NVIDIAプロフェッショナルサービスからの専門的なアドバイスが含まれています。DGXシステムは、世界のほぼすべての業界で何千社もの企業が利用しており、NVIDIA DGX H100には立証された信頼性があります。
AIの大規模活用の壁を打ち破る
NVIDIA DGX H100は世界で初めてNVIDIA H100 TensorコアGPUを搭載したシステムであり、AIのスケールとパフォーマンスの限界を突破します。NVIDIA ConnectX®-7スマートネットワークインターフェイスカード(SmartNIC)とNVIDIA BlueField®-3データプロセシングユニット(DPU)で6倍のパフォーマンスと2倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD向けのハイスピードスケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーションモデルなど、大規模で複雑なAIジョブに対応できるように強化されています。
多様な条件に適合するリーダーシップクラスのインフラ
企業でAIを利用する際に重要なのは、パフォーマンスと機能だけではありません。組織のIT要件と運用要件に適合することも重要です。NVIDIA DGX H100は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX対応のデータセンターへのコロケーション、NVIDIA DGX Foundryでのレンタル、NVIDIA認定のマネージドサービスプロバイダーを介した利用が可能です。また、DGX対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しいITスタッフの負担を増やすことなく、従来のITインフラと同じように簡単にNVIDIA DGX H100を活用、入手できるため、明日を待たずにすぐAI をビジネスに活用できます。
構成
◆ NVIDIA H100 GPUx8、合計GPUメモリー 640GBGPUあたり12NVIDIA
® NVLinks
®、GPU間の双方向帯域幅 900GB/s
◆ NVIDIA NVSWITCHES™ x4
7.2TB/sのGPU間双方向帯域幅 、前世代比1.5倍以上
◆ NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/s ネットワークインターフェース x2
ピーク時の双方向ネットワーク帯域幅1TB/s
◆ デュアル x86 CPUと2TBシステムメモリー
AIへの依存が非常に高い仕事を可能にするパワフルなCPU
◆ 30TB NVME SSD
最高のパフォーマンスを実現するための高速ストレージ
仕様
項目 |
内容 |
GPU |
8xNVIDIA H100 TensorコアGPU |
GPUメモリー |
合計640GB(各80GBx8) |
パフォーマンス |
32petaFLOPS FP8 |
NVIDIA NVSwitch数 |
4 |
システム消費電力 |
最大10.2kW |
CPU |
Dualx86 |
システムメモリー |
2TB |
ネットワーク |
4個のOSFPポートで8基のシングルポートConnectX-7へ接続 400Gb/s InfiniBand/Ethernet 2基のデュアルポートNVIDIA BlueField-3 DPU VPI 400Gb/s InfiniBand/Ethernetx1 200Gb/s InfiniBand/Ethernetx1 |
管理ネットワーク |
10Gb/s オンボードNIC(RJ45 付き) 50Gb/s Ethernet オプション NIC ホストベースボード管理コントローラー(BMC)(RJ45 付き) 2xNVIDIA BlueField-3 DPU BMCそれぞれRJ45コネクターで接続) |
ストレージ |
OS:2x1.9TB NVMe M.2 内部ストレージ:8x3.84TB NVMe U.2 |
システムソフトウェア |
DGX H100システムにプレインストールされているDGX OSは、Ubuntu Linuxをベースとし、 DGXソフトウェア スタック(DGX用に最適化されている、必要なすべてのパッケージとドライバー)が含まれます。 オプションで、お客様がUbuntu LinuxまたはRed Hat Enterprise Linux、 および必要なDGXソフトウェアスタックを個別にインストールすることもできます。 |
動作温度範囲 |
5℃~30°C |
梱包サイズ(mm) |
970x771x1178 |
フォームファクタ(mm) |
356x482.2x897.1 |
※仕様などは予告なしに変更されることがあります。
ご購入
本製品は、メーカーのパートナー制度を活用した販売制度にて販売しております。
※ 弊社から直販ではなく、NPNパートナー様(NVIDIA認定2次代理店)を介しての販売となります。
NPNパートナー様のご紹介やDGXを含めたNVIDIA製品についてのお問い合わせも承っておりますのでお気軽にお問い合わせください。
関連動画
関連製品
NVIDIA
NVIDIA AI Enterprise
エンタープライズ AI のための「オペレーティング システム」
NVIDIA
H100 Tensor Core GPU 80GB
あらゆるデータセンターにかつてない性能、拡張性、セキュリティを提供