
デスクの下の AI スーパーコンピューター
NVIDIA DGX Station A100は、AIスーパーコンピューティングをデータサイエンスチームにもたらし、データセンターやITインフラストラクチャの増設なしにデータセンターテクノロジを提供します。複数ユーザーが同時に接続できるように設計されており、DGX Station A100はオフィスに適したフォームファクタでサーバーグレードコンポーネントを活用します。完全に相互接続されたマルチインスタンスGPU(MIG)対応の4基のNVIDIA A100 Tensorコア‑PUと全体で最大320GBのGPUメモリを備えた唯一のシステムであり標準的な電源コンセントにプラグ接続できるため、どこにでも配置できる強力なAIアプライアンスです。
データサイエンスチーム向けのAIスーパーコンピューティング
DGX Station A100は、複数の同時接続ユーザーに集中型AIリソースを手軽に提供できるAI時代のワークグループアプライアンスです。トレーニング、推論、分析のワークロードをMIGで並列実行可能。最大28台の独立したGPUデバイスが個々のユーザーとジョブに割り当てられるので、システム全体の性能に影響を与えません。DGX Station A100はすべてのDGXシステムと同じく完全に最適化されたNVIDIA DGX™ソフトウェアスタックを備えており、個々のシステムからNVIDIA DGX POD™やNVIDIA DGX Super POD ™に至るまで、最高の性能とD‑Xベースインフラストラクチャとの完全相互運用性を提供し、規模の大小を問わず、あらゆる組織のチームにとって理想的なプラットフォームとなります。
データセンターなしでデータセンターの性能を実現
NVIDIA DGX Station A100は、ワークステーションのフォームファクタでデータセンター級のAIサーバーを実現し、専用の電源と冷却なしに標準的なオフィス環境で使用するのに適しています。4つの超強力なNVIDIA A100 TensorコアGPU、最上位のサーバーグレードGPU、超高速NVMeストレージ、および最先端のPCIe Gen4バスを備える設計になっています。DGX Station A100にもNVIDIA DGX A100と同じベースボードマネジメントコントローラ(BMC)が搭載されており、システム管理者はリモート接続によって要求タスクを実行できます。DGX Station A100は、オフィス環境向けの最も強力なAIシステムであり、データセンターなしにデータセンターテクノロジを提供します。
どこにでも配置できるAIアプライアンス
NVIDIA DGX Station A100は、企業のオフィス、実験室、研究施設、さらには自宅から作業する昨今のアジャイルデータサイエンスチーム向けに設計されています。大規模なAIインフラストラクチャを設置するには多大なIT投資と工業用の強力な電源供給と冷却機能を備えた大型データセンターが必要ですが、DGX Station A100なら、お客様のチームの作業スペースがどこにあっても標準的な壁のコンセントに接続するだけです。さらに、その革新的な冷却ベースのデザインにより、手で触れても熱くありません。1人で簡単にセットアップできるので、たった2本のケーブルで動作する世界最高峰のAIプラットフォームを数分で立ち上げて稼働させることができます。
モデルの大規模化、応答の高速化
NVIDIA DGX Station A100はワークステーションではありません。これは、デスクの下に設置できるAIワークグループサーバーです。64コアのデータセンターグレードGPUに加えて、NVIDIA DGX A100サーバーと同じNVIDIA A100 TensorコアGPUを備え、それぞれ40GBまたは80GBのGPUメモリが高速なSXM4を介して接続されています。NVIDIA DGX Station A100は、NVIDIA®NVLink®を活用して4つのGPUを完全相互接続し、かつMIG対応でシステム性能に影響を与えずに並列ジョブと複数のユーザー向けに最大28台の独立したGPUデバイスを提供する唯一のオフィスに適したシステムです。
比類なきAIノウハウへの統合アクセス
NVIDIA DGX Station A100は、NVIDIAの数千人のAI専門家に支えられた完全なハードウェア&ソフトウェアプラットフォームであり、世界最大のDGX実験場であるNVIDIA DGX SATURNVから得られた知識に基づいて構築されています。DGX Station A100を所有すれば、NVIDIA DGXpertsに直接アクセスできます。NVIDIA DGXpertsは、AIに精通した専門家の国際チームであり、NVIDIAの10年を超えるAIリーダーシップのノウハウと経験に基づき、AI変革の急速な発展に貢献する規範的なガイダンスと設計の専門知識を提供します。これにより、ミッションクリティカルなアプリケーションが確実に素早く立ち上がってスムーズに稼働し続けることになり、インサイトを得るまでの時間が大幅に改善されます。
構成
CPUとメモリ | 64コア AMD EPYC CPU PCIe Gen4 512GBシステムメモリ |
|
ストレージ | OS用:1.92TB NVME M.2 SSD データキャッシュ用:7.68TB NVME U.2 SSD |
|
コネクタ | 2 x 10GbE(RJ45) 4 x Mini DisplayPort リモートマネジメント 1GbE LAN ポート(RJ45) |
仕様
GPU | 4x NVIDIA A100 Tensorコア | |
GPUメモリ | 40GBモデル(合計160GB) 80GBモデル(合計320GB) | |
パフォーマンス | 2.5petaFLOPS AI 5petaOPS INT8 | |
最大電力 | 1.5kW(100~120Vac時) | |
CPU | Single AMD 7742、64コア 2.25GHz(ベース)~3.4GHz(最大ブースト) |
|
システム メモリ | 512GB DDR4 | |
ネットワーク | デュアルポート10Gbase-T イーサネットLAN シングルポート1Gbase-T イーサネットBMCマネジメントポート |
|
ストレージ | OS:1x 1.92TB NVMEドライブ 内部ストレージ:7.68TB U.2 NVMEドライブ |
|
DGXディスプレイアダプタ | 4GB GPUメモリ 4x Mini DisplayPort |
|
システム音響特性 | 37dB未満 | |
ソフトウェア | Ubuntu Linux OS | |
重量 | 43.1kg(91.0lbs) | |
梱包重量 | 57.93kg(127.7lbs) | |
動作温度範囲 | 5℃~35℃(41~95 ºF) | |
大きさ | 高さ:639mm(25.1in) 幅:256mm(10.1in) 長さ:518mm(20.4in) |
※ 仕様などは予告なしに変更されることがあります
本製品は、メーカーのパートナー制度を活用した販売制度にて販売しております。
※弊社から直販ではなく、NPNパートナー様(NVIDIA認定2次代理店)を介しての販売となります。