NVIDIA DGX B200は、企業規模を問わず、AI導入のどの段階においても、パイプラインの開発から導入までを可能にする統合AIプラットフォームです。 第5世代のNVIDIA NVLinkで相互接続された8基のNVIDIA B200 TensorコアGPUを搭載したDGX B200は、前世代と比較してトレーニング性能は3倍、推論性能は15倍の最先端の性能を提供します。NVIDIA Blackwell GPUアーキテクチャを採用したDGX B200は、大規模言語モデル、レコメンダーシステム、チャットボットなどの多様なワークロードを処理することができ、AIトランスフォーメーションの加速を目指す企業に最適です。
NVIDIA DGX™ B200 は、企業規模を問わず、AI導入のどの段階においても、パイプラインの開発から導入までを可能にする統合AIプラットフォームです。 第5世代の NVIDIA NVLink®で相互接続された8基のNVIDIA B200 TensorコアGPU を搭載したDGX B200は、前世代と比較してトレーニング性能は3倍、推論性能は15倍の最先端の性能を提供します。NVIDIA Blackwell GPUアーキテクチャを採用したDGX B200は、大規模言語モデル、レコメンダー システム、チャットボットなどの多様なワークロードを処理することができ、AIトランスフォーメーションの加速を目指す企業に最適です。
企業は、トレーニングからファインチューニングに推論まで、AIパイプラインのあらゆる段階で複雑なAIデータセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200があれば、ワークフローを高速化するように作られた1つのプラットフォームを企業は開発者に与えることができます。
NVIDIA Blackwellアーキテクチャの高度なコンピューティングを活用するDGX B200は、DGX H100と比較してそのトレーニング パフォーマンスが3倍、推論パフォーマンスが25倍となります。NVIDIA DGX BasePOD™やNVIDIA DGX SuperPOD™の土台である DGX B200は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。
企業は、トレーニングからファインチューニングに推論まで、AIパイプラインのあらゆる段階で複雑なAIデータセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200があれば、ワークフローを高速化するように作られた1つのプラットフォームを企業は開発者に与えることができます。
NVIDIA DGX B200は、NVIDIA Blackwell GPUを搭載した世界初のシステムであり、大規模言語モデルや自然言語処理など、世界で最も複雑なAI問題を処理するため の画期的なパフォーマンスを提供します。DGX B200は、完全に最適化されたハードウェアおよびソフトウェア のプラットフォームです。NVIDIA AIソフトウェアのフルスタックを備え、多様なサードパーティのサポートを受けられる充実したエコシステムを利用でき、 さらにNVIDIAプロフェッショナルサービスにより専門家からのアドバイスを受けること ができます。組織はAIを利用し、最大かつ最も複雑なビジネス問題を解決できます。
企業は、トレーニングからファインチューニングに推論まで、AIパイプラインのあらゆる段階で複雑なAIデータセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200があれば、ワークフローを高速化するように作られた1つのプラットフォームを企業は開発者に与えることができます。
NVIDIA Base Commandは旧Bright Claster Managerの機能がNVIDIA AI Enterpriseライセンスに統合された名称です。サーバーのクラスター化、 DGXプラットフォームを強化し、NVIDIAソフトウェアがもたらすイノベーションを企業が最大級活用できるようにします。企業は、エンタープライズグレードのオーケストレーションとクラスター管理、コンピューティング、ストレージ、ネットワークのインフラを高速化するライブラリ、AI ワークロード向けに最適化されたオペレーティング システムを含む実証済みのプラットフォームで、DGXインフラの可能性を最大限まで引き出すことができます。また、DGXインフラには、AIの開発と展開を効率化するために最適化された一連のソフトウェア、NVIDIA AI Enterpriseも含まれています。
GPU単体はもちろん、DGXのようなサーバー、コンピューティングリソースからネットワークまでをトータルでサポートできるのはNVIDIAの強みです。What just happenedでネットワーク問題の特定が可能なため、製品ごとに個別のベンダに問い合わせる工数が不要、円滑なシステム回復を実現します。
アクセラレーテッドコンピューティングの実現には、ハードウェアやソフトウェア、どちらかだけの知識、サポートでは成り立ちません。
RYOYOではサーバーからネットワーキング構築まで、それぞれの専門家がサポートするため、AIプロジェクトの立ち上げから運用までトータルでのフォローが可能です。
RYOYOならNVIDIAソリューションのご提案から構築、現地搬入の作業まで幅広く対応が可能です。貸出機のご対応もございますので、ご遠慮なくお問い合わせください。
◆ NVIDIA Brackwell GPUx8、合計GPUメモリー 1,440GB(1.4TB)
GPU間の双方向帯域幅 64TB/s
◆ NVIDIA NVSWITCHES™x2
◆ NVIDIA CONNECTX®-7 VPIx4および、NVIDIA BlueField®-3 DPU 400Gb/sネットワークインターフェースx2
◆ Intel Xeon Platinum 8570プロセッサ CPUx2と4TBシステムメモリー
AIへの依存が非常に高い仕事を可能にするパワフルなCPU
◆ OS:1.9TB NVMe M.2x2と内部ストレージ:3.84TB NVMe U.2x8
最高のパフォーマンスを実現するための高速ストレージ
項目 | 内容 |
---|---|
GPU | 8xNVIDIA B200 TensorコアGPU |
GPUメモリー | 合計1,440GBのGPUメモリー |
パフォーマンス | 72petaFLOPSのFP8トレーニングと144 petaFLOPSのFP4推論 |
NVIDIA NVSwitch数 | 2 |
システム消費電力 | 最大14.3kW |
CPU | 2xIntel® Xeon® Platinum 8570プロセッサ 合計112コア、2.1GHz(ベース) 4GHz(最大ブースト) |
システムメモリー | 最大4TB |
ネットワーク | 4xOSFPポートで8xシングルポートを提供するNVIDIA ConnectX-7 VPI 最大400Gb/sのInfiniBand/Ethernet 2xデュアルポートQSFP112 NVIDIA BlueField-3 DPU 最大400Gb/sのInfiniBand/Ethernet |
管理ネットワーク | 10Gb/sのオンボード NIC(RJ45搭載) 100Gb/sのデュアルポートイーサネットNIC ホストBMC(ベースボード管理コントローラー、RJ45搭載) |
ストレージ | OS:2x1.9TB NVMe M.2 内部ストレージ:8x3.84TB NVMe U.2 |
ソフトウェア | NVIDIA AI Enterprise:最適化されたAIソフトウェア NVIDIA Base Command™:オーケストレーション、スケジューリング、クラスター管理 DGX OS / Ubuntu:オペレーティングシステム |
ラックユニット(RU) | 10RU |
動作温度範囲 | 5~30°C |
フォームファクター(mm) | 高さ444x幅482.2x長さ897.1 |
企業向けサポート | ハードウェアとソフトウェアの3年間のエンタープライズBusiness-Standardサポート 年中無休のエンタープライズサポートポータルアクセス 現地営業時間中のライブエージェントサポート |