
あらゆる企業を対象としたAI推論およびメインストリーム コンピューティング
NVIDIA A30 TensorコアGPUは、AI推論およびメインストリーム エンタープライズ ワークロードのための最も汎用的なメインストリーム コンピューティングGPUです。NVIDIA AmpereアーキテクチャTensorコア テクノロジにより、幅広い計算精度をサポートし、単一アクセラレータであらゆるワークロードを高速化します。
大規模なAI推論向けに構築された同一のコンピューティング リソースにて、AIモデルをTF32で素早く再トレーニングし、HPC (ハイパフォーマンス コンピューティング)アプリケーションをFP64 Tensorコアを用いて高速化できます。Multi-Instance GPU(MI)とFP64 Tensorコアは、毎秒933ギガバイト(GB/s)の高速なメモリ帯域幅と組み合わされ、165Wの低消費電力でメインストリーム サーバーに最適なPCIeカード上で動作します。
第3世代 TensorコアとMIGを組み合わせることで、多様なワークロードに対して保証されたサービス品質を提供し、柔軟性のあるデータセンターを実現する汎用的なGPUの能力を活用できます。大規模なワークロードから小規模なワークロードまで対応可能な汎用性の高いA30のコンピューティング能力は、メインストリームの企業に最大限の価値をもたらします。
A30は、ハードウェア、ネットワーク、ソフトウェア、ライブラリ、NGC™の最適化されたAIモデルとアプリケーションにわたるビルディングブロックで構成される完全なNVIDIAデータセンター ソリューションの一部です。A30はデータセンター向けの最も強力なエンドツーエンドのAI/HP プラットフォームとして機能し、研究者は現実の成果を出し、ソリューションを大規模な運用環境へ展開できます。
製品情報
製品名 | NVIDIA A30 |
型番 | NVA30-24G |
JANコード | なし |
価格
オープンプライス
仕様
アーキテクチャ | Ampere |
GPUメモリー | 24GB HBM2 |
メモリー帯域幅 | 最大933 GB/s |
ピークFP64 | 5.2TF |
ピークFP64 Tensorコア | 10.3TF |
ピークFP32 | 10.3TF |
TF32 Tensorコア | 82 TF | 165 TF※ |
BFLOAT16 Tensorコア | 165 TF | 330 TF※ |
ピークFP16 Tensorコア | 165 TF | 330 TF※ |
ピークINT8 Tensorコア | 330 TOPS | 661 TOPS※ |
ピークINT4 Tensorコア | 661 TOPS | 1321 TOPS※ |
メディアエンジン | 1 optical flow accelerator(OFA) 1 JPEGデコーダー(NVJPEG) 4ビデオ デコーダー(NVDEC) |
相互接続 | PCIe Gen4: 64GB/s 第3世代NVIDIA® NVLINK® 200GB/s** |
消費電力(TDP) | 165W |
ファームファクター | 267.7 x 111 Dual Slot |
Multi-Instance GPU(MIG) | 6GBのMIGが4つ 12GBのMIGが2つ 24GBのMIGが1つ |
仮想GPU (vGPU) ソフトウェア サポート |
VMware 向けNVIDIA AI Enterprise NVIDIA 仮想コンピュート サーバー |
電源コネクタ | 1x CPU 8-pin |
※スパース性あり
※仕様などは予告なしに変更されることがあります
同梱物
同梱物 | 保証書 |
製品保証
3年間保証(NVIDIA A30 本体のみ)
保証対象製品の交換(センドバック方式)
※ 仕様・製品名・型番は事前のご連絡なく、変更になる可能性がございます。