productNVIDIA
DGX H100

大規模な生成AIやその他のTransformerベースのワークロードに最適化されたAIスーパーコンピューター
DGX H100

H100_320_278

NVIDIA DGX H100は、AIソフトウェアと特定用途向けのハードウェアを統合した、AI開発のためのプラットフォームです。NVIDIA H100 TensorコアGPUを搭載し、複雑なAIの課題を解決します。

特長

人工知能(AI)はビジネスにおける困難な課題を、解決するために役立つ手段になりました。
顧客サービスの改善、サプライチェーンの最適化、ビジネスインテリジェンスの抽出、最先端の製品やサービスの設計など、ほぼすべての業界の組織の課題に対し、AIはイノベーションを実現する包括的なメカニズムを提供します。AIインフラの先駆者となったNVIDIA DGX ™システムは、このような重要な概念を実現するための最も強力で完結したAIプラットフォームを提供します。
NVIDIA DGX H100はビジネスのイノベーションと最適化を支援します。NVIDIAにおける、伝説的なDGXシステムとNVIDIA DGX SuperPODの構築の歴史において、最新モデルであるNVIDIA DGX H100は、画期的なNVIDIA H100 TensorコアGPUを搭載し、AIの活用を推し進めます。AIスループットを最大化するように設計されており、高度に洗練され、システム化されたスケーラブルなプラットフォームの提供により、自然言語処理、レコメンデーション システム、データ分析など、企業のさまざまな革新的課題解決を支援します。NVIDIA DGX H100は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題をAIで解決するために必要なパフォーマンスを実現します。

 

AIのセンターオブエクセレンスの基礎

AIは、科学とビジネスの間にあった溝を埋めました。AIはすでに実験の域を脱し、大小の企業がイノベーションの推進や事業の最適化のために、日々利用するようになりました。NVIDIA DGX H100は、AIに特化した世界初のインフラの第4世代であり、企業のAI中核拠点の基礎となるように設計されています。すべてを最適化したハードウェアとソフトウェアのプラットフォームに、新しい各種NVIDIA AIソフトウェアソリューションのフルサポート、充実したサードパーティサポートエコシステム、NVIDIAプロフェッショナルサービスからの専門的なアドバイスが含まれています。DGXシステムは、世界のほぼすべての業界で何千社もの企業が利用しており、NVIDIA DGX H100には立証された信頼性があります。

 

AIの大規模活用の壁を打ち破る

NVIDIA DGX H100は世界で初めてNVIDIA H100 TensorコアGPU を搭載したシステムであり、AI のスケールとパフォーマンスの限界を突破します。NVIDIA ConnectX®-7スマートネットワークインターフェイスカード(SmartNIC)とNVIDIA BlueField®-3データプロセシングユニット(DPU)で6倍のパフォーマンスと2倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD向けのハイスピードスケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープラーニングによるレコメンデーションモデルなど、大規模で複雑なAIジョブに対応できるように強化されています。

 

多様な条件に適合するリーダーシップクラスのインフラ

企業でAIを利用する際に重要なのは、パフォーマンスと機能だけではありません。組織のIT要件と運用要件に適合することも重要です。NVIDIA DGX H100は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX対応のデータセンターへのコロケーション、NVIDIA DGX Foundryでのレンタル、NVIDIA認定のマネージドサービスプロバイダーを介した利用が可能です。また、DGX対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しいITスタッフの負担を増やすことなく、従来のITインフラと同じように簡単にNVIDIA DGX H100を活用、入手できるため、明日を待たずにすぐAI をビジネスに活用できます。

構成

◆ NVIDIA H100 GPU x8、合計GPUメモリー 640GB
GPUあたり12NVIDIA® NVLinks®、GPU間の双方向帯域幅 900GB/s

◆ NVIDIA NVSWITCHES x4
7.2TB/sのGPU間双方向帯域幅 、前世代比1.5倍以上

◆ NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/s ネットワークインターフェース x2
ピーク時の双方向ネットワーク帯域幅1TB/s

◆ デュアル x86 CPUと2TBシステムメモリー
AIへの依存が非常に高い仕事を可能にするパワフルなCPU

◆ 30TB NVME SSD
最高のパフォーマンスを実現するための高速ストレージ

DGX H100_構成

仕様

 項目  内容
GPU 8xNVIDIA H100 TensorコアGPU
GPUメモリー 合計640GB(各80GB×8)
パフォーマンス 32petaFLOPS FP8
NVIDIA NVSwitch数 4
システム消費電力 最大10.2kW
CPU Dualx86
システムメモリー 2TB
ネットワーク 4個のOSFPポートで8基のシングルポートConnectX-7へ接続
400Gb/s InfiniBand/Ethernet
2基のデュアルポートNVIDIA
BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernetx1
200Gb/s InfiniBand/Ethernetx1
管理ネットワーク 10Gb/s オンボードNIC(RJ45 付き)
50Gb/s Ethernet オプション NIC
ホストベースボード管理コントローラー(BMC)(RJ45 付き)
2xNVIDIA BlueField-3 DPU BMC(それぞれRJ45コネクターで接続)
ストレージ OS:2x1.9TB NVMe M.2
内部ストレージ:8x3.84TB NVMe U.2
システムソフトウェア DGX H100システムにプレインストールされているDGX OSは、Ubuntu Linuxをベースとし、
DGXソフトウェア スタック(DGX用に最適化されている、必要なすべてのパッケージとドライバー)が含まれます。

オプションで、お客様がUbuntu LinuxまたはRed Hat Enterprise Linux、
および必要なDGXソフトウェアスタックを個別にインストールすることもできます。
動作温度範囲 5℃~30°C
フォームファクター(mm) 356x482.2x897.1
※仕様などは予告なしに変更されることがあります。

ご購入

本製品は、メーカーのパートナー制度を活用した販売制度にて販売しております。
※弊社から直販ではなく、NPNパートナー様(NVIDIA認定2次代理店)を介しての販売となります。
NPNパートナー様のご紹介やDGXを含めたNVIDIA製品についてのお問い合わせも承っておりますのでお気軽にお問い合わせくださいませ。

関連動画

関連製品

page top