NVIDIA DGX H100

人工知能(AI)はビジネスにおける困難な課題を、解決するために役立つ手段になりました。
顧客サービスの改善、サプライチェーンの最適化、ビジネス インテリジェンスの抽出、最先端の製品やサービスの設計など、ほぼすべての業界の組織の課題に対し、AI はイノベーションを実現する包括的なメカニズムを提供します。AI インフラの先駆者となったNVIDIA DGX ™ システムは、このような重要な概念を実現するための最も強力で完結したAI プラットフォームを提供します。
NVIDIA DGX H100 はビジネスのイノベーションと最適化を支援します。NVIDIAにおける、伝説的なDGX システムとNVIDIA DGX SuperPOD の構築の歴史において、最新モデルであるNVIDIA DGX H100 は、画期的なNVIDIA H100 Tensor コアGPU を搭載し、AI の活用を推し進めます。AI スループットを最大化するように設計されており、高度に洗練され、システム化されたスケーラブルなプラットフォームの提供により、自然言語処理、レコメンデーション システム、データ分析など、企業のさまざまな革新的課題解決を支援します。NVIDIA DGX H100 は、オンプレミスに導入できるほか、さまざまなアクセスと展開の選択肢があり、企業の大規模な課題を AI で解決するために必要なパフォーマンスを実現します。

AI のセンター オブ エクセレンスの基礎

AI は、科学とビジネスの間にあった溝を埋めました。AI はすでに実験の域を脱し、大小の企業がイノベーションの推進や事業の最適化のために、日々利用するようになりました。NVIDIA DGX H100 は、AI に特化した世界初のインフラの第4 世代であり、企業のAI 中核拠点の基礎となるように設計されています。すべてを最適化したハードウェアとソフトウェアのプラットフォームに、新しい各種NVIDIA AI ソフトウェア ソリューションのフルサポート、充実したサードパーティ サポート エコシステム、NVIDIA プロフェッショナル サービスからの専門的なアドバイスが含まれています。DGX システムは、世界のほぼすべての業界で何千社もの企業が利用しており、NVIDIA DGX H100 には立証された信頼性があります。

AI の大規模活用の壁を打ち破る

NVIDIA DGX H100 は世界で初めてNVIDIA H100 Tensor コアGPU を搭載したシステムであり、AI のスケールとパフォーマンスの限界を突破します。NVIDIA ConnectX®-7 スマート ネットワーク インターフェイス カード(SmartNIC)とNVIDIA BlueField®-3 データ プロセシング ユニット(DPU)で6 倍のパフォーマンスと2 倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD 向けのハイスピード スケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープ ラーニングによるレコメンデーション モデルなど、大規模で複雑なAI ジョブに対応できるように強化されています。

多様な条件に適合するリーダーシップクラスのインフラ

企業でAI を利用する際に重要なのは、パフォーマンスと機能だけではありません。組織のIT 要件と運用要件に適合することも重要です。NVIDIA DGX H100 は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX 対応のデータセンターへのコロケーション、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを介した利用が可能です。また、DGX 対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しいIT スタッフの負担を増やすことなく、従来のIT インフラと同じように簡単にNVIDIA DGX H100 を活用、入手できるため、明日を待たずにすぐAI をビジネスに活用できます。

◆ NVIDIA H100 GPU x8、合計 GPU メモリ 640GB
GPU あたり 12 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒

NVIDIA NVSWITCHES x4
7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上

NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2
ピーク時の双方向ネットワーク帯域幅 1TB/秒

デュアル x86 CPU と 2TB システム メモリ
AI への依存が非常に高い仕事を可能にするパワフルな CPU

30TB NVME SSD
最高のパフォーマンスを実現するための高速ストレージ

仕様

GPU 8x NVIDIA H100 Tensor コアGPU
GPUメモリ 合計640GB(各80GB×8)
パフォーマンス 32 petaFLOPS FP8
NVIDIA NVSwitch数 4
システム消費電力 最大10.2kW
CPU デュアルx86
システム メモリ 2TB
ネットワーク 4 個のOSFP ポートで8 基のシングルポートConnectX-7 へ接続
400Gb/s InfiniBand/Ethernet
2 基のデュアルポート NVIDIA
BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernet x1
200Gb/s InfiniBand/Ethernet x1
管理ネットワーク 10Gb/s オンボードNIC(RJ45 付き)
50Gb/s Ethernet オプション NIC
ホスト ベースボード管理コントローラー(BMC)(RJ45 付き)
2x NVIDIA BlueField-3 DPU BMC(それぞれRJ45 コネクタで接続)
ストレージ OS:2x 1.9TB NVMe M.2
内部ストレージ:8x 3.84TB NVMe U.2
システムソフトウェア DGX H100 システムにプレインストールされているDGX OS は、Ubuntu Linux をベースとし、DGX ソフトウェア スタック(DGX 用に最適化されている、必要なすべてのパッケージとドライバー)が含まれます。
オプションで、お客様がUbuntu LinuxまたはRed Hat Enterprise Linux、および必要なDGX ソフトウェア スタックを個別にインストールすることもできます。
動作温度範囲 5℃~30 °C

※ 仕様などは予告なしに変更されることがあります

本製品は、メーカーのパートナー制度を活用した販売制度にて販売しております。
※弊社から直販ではなく、NPNパートナー様(NVIDIA認定2次代理店)を介しての販売となります。
NPNパートナー様のご紹介やDGXを含めたNVIDIA製品についてのお問い合わせも承っておりますのでお気軽にお問い合わせくださいませ。