NVIDIA A30

あらゆる企業を対象としたAI推論およびメインストリーム コンピューティング

NVIDIA A30 TensorコアGPUは、AI推論およびメインストリーム エンタープライズ ワークロードのための最も汎用的なメインストリーム コンピューティングGPUです。NVIDIA AmpereアーキテクチャTensorコア テクノロジにより、幅広い計算精度をサポートし、単一アクセラレータであらゆるワークロードを高速化します。
大規模なAI推論向けに構築された同一のコンピューティング リソースにて、AIモデルをTF32で素早く再トレーニングし、HPC (ハイパフォーマンス コンピューティング)アプリケーションをFP64 Tensorコアを用いて高速化できます。Multi-Instance GPU(MI)とFP64 Tensorコアは、毎秒933ギガバイト(GB/s)の高速なメモリ帯域幅と組み合わされ、165Wの低消費電力でメインストリーム サーバーに最適なPCIeカード上で動作します。
第3世代 TensorコアとMIGを組み合わせることで、多様なワークロードに対して保証されたサービス品質を提供し、柔軟性のあるデータセンターを実現する汎用的なGPUの能力を活用できます。大規模なワークロードから小規模なワークロードまで対応可能な汎用性の高いA30のコンピューティング能力は、メインストリームの企業に最大限の価値をもたらします。
A30は、ハードウェア、ネットワーク、ソフトウェア、ライブラリ、NGC™の最適化されたAIモデルとアプリケーションにわたるビルディングブロックで構成される完全なNVIDIAデータセンター ソリューションの一部です。A30はデータセンター向けの最も強力なエンドツーエンドのAI/HP プラットフォームとして機能し、研究者は現実の成果を出し、ソリューションを大規模な運用環境へ展開できます。

製品情報

製品名 NVIDIA A30
型番 NVA30-24G
JANコード  なし

価格

オープンプライス

仕様

アーキテクチャ Ampere
GPUメモリー 24GB HBM2
メモリー帯域幅 最大933 GB/s
ピークFP64 5.2TF
ピークFP64 Tensorコア 10.3TF
ピークFP32 10.3TF
TF32 Tensorコア 82 TF | 165 TF※
BFLOAT16 Tensorコア 165 TF | 330 TF※
ピークFP16 Tensorコア 165 TF | 330 TF※
ピークINT8 Tensorコア 330 TOPS | 661 TOPS※
ピークINT4 Tensorコア 661 TOPS | 1321 TOPS※
メディアエンジン 1 optical flow accelerator(OFA)
1 JPEGデコーダー(NVJPEG)
4ビデオ デコーダー(NVDEC)
相互接続 PCIe Gen4: 64GB/s
第3世代NVIDIA® NVLINK®
200GB/s**
消費電力(TDP) 165W
ファームファクター 267.7 x 111
Dual Slot
Multi-Instance GPU(MIG) 6GBのMIGが4つ
12GBのMIGが2つ
24GBのMIGが1つ
仮想GPU (vGPU)
ソフトウェア サポート
VMware 向けNVIDIA AI
Enterprise NVIDIA
仮想コンピュート サーバー
電源コネクタ 1x CPU 8-pin

※スパース性あり
※仕様などは予告なしに変更されることがあります

同梱物

同梱物 保証書

製品保証

3年間保証(NVIDIA A30 本体のみ)
保証対象製品の交換(センドバック方式)
※ 仕様・製品名・型番は事前のご連絡なく、変更になる可能性がございます。