NVIDIA H100 Tensor Core GPU 80GB


アクセラレーテッド コンピューティングの大きな飛躍

NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。NVIDIA® NVLink® Switch System により、最大 256 個の H100 を接続し、エクサスケールのワークロードを高速化できます。さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100 の複合的な技術革新により、大規模な言語モデルが前世代と比較して 30 倍も高速化され、業界の一歩先を行く対話型 AI が可能となります。

大規模言語モデル推論を加速

最大 1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX™ A100 システムの最大 12 倍まで向上します。

NVIDIA AI Enterprise

標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション 5 年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。

NVIDIA AI Enterprise詳細はこちら

製品情報

製品名 NVIDIA H100 Tensor Core GPU 80GB
型番 NVH100-80G

価格

価格 オープンプライス

仕様

アーキテクチャ Hopper
GPUメモリー 80GB HBM2e
メモリー帯域 2TB/s
エラー修正コード(ECC) Yes
FP64 26TFLOPS
FP64 Tensor Core 51TFLOPS
FP32 51TFLOPS
TF32 Tensor Core 756TFOLPS※
BFLOAT16 Tensor core 1,513 TFLOPS※
FP16 Tensor Core 1,513 TFLOPS※
FP8 Tensor Core 3,026 TFLOPS※
INT8 Tensor Core 3,026 TFLOPS※
デコーダー 7 x NVDEC
7 x JPEG
インターコネクト PCIe5.0:128GB/s
NVLink : 600GB/s
消費電力(TDP) 300-350W
冷却機構 パッシブ
フォームファクタ 267.7 x 111
Dual Slot
マルチインスタンスGPU(MIG) 10GBのMIGが最大7つ

※仕様・製品名・型番は事前のご連絡なく、変更になる可能性がございます。
※sparsity有効時

付属ライセンス

NVIDIA AI Enterprise 5年Subscriptionライセンスが付属

同梱物

同梱物 保証書

※補助電源ケーブルは付属しません。

保証

3年間保証(NVIDIA H00 80G 本体のみ)
保証対象製品の交換(センドバック方式)
※ 仕様・製品名・型番は事前のご連絡なく、変更になる可能性がございます。