NVIDIA H200 PCIe 141GB NVL
AI Acceleration for Mainstream Enterprise Servers
- 141GB HBM3e Memory
- MPC 600W
NVIDIA H200 PCIe 141GB NVLは HBM3eメモリを 141GB搭載し最大 4つの GPUを NVIDIA NVLinkで接続することができ、コンピュータービジョンや音声 AI、RAG(検索拡張生成)などの実稼働向け生成AIソリューションの開発と展開を加速します。
前世代の H100 NVLと比較して大規模言語モデル (LLM) 推論は最大 1.7倍高速化し、HPCアプリケーションは最大 1.3倍のパフォーマンスを実現します。また、5年間のサブスクリプションが付属している NVIDIA AI Enterpriseには、生成AI展開を促進する NVIDIA NIMという使いやすいマイクロサービスセットが含まれており、エンタープライズ向けのセキュリティや管理性、安定性、サポートが提供されます。これにより、最適化されたAIソリューションを通じて、ビジネス価値と実用的な洞察を迅速に得ることが可能になります。搭載するサーバや納期等、導入ご検討の際はお気軽にお問い合わせください。
製品仕様
H200 SXM | H200 NVL | |
FP64 | 34 TFLOPS | 34 TFLOPS |
FP64 Tensor コア | 67 TFLOPS | 67 TFLOPS |
FP32 | 67 TFLOPS | 67 TFLOPS |
TF32 Tensor コア | 989 TFLOPS※2 | 989 TFLOPS※2 |
BFLOAT16 Tensor コア | 1,979 TFLOPS※2 | 1,979 TFLOPS※2 |
FP16 Tensor コア | 1,979 TFLOPS※2 | 1,979 TFLOPS※2 |
FP8 Tensor コア | 3,958 TFLOPS | 3,958 TFLOPS |
INT8 Tensor コア | 3,958 TOPS※2 | 3,958 TOPS※2 |
GPU メモリ | 141GB | 141GB |
GPU メモリ帯域幅 | 4.8TB/秒 | 4.8TB/秒 |
デコーダー | 7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
最大熱設計電力 | 最大 700W (構成可能) |
最大 600W (構成可能) |
マルチインスタンス GPU | 各18GB 最大7個のMIG |
各18GB 最大7個のMIG |
フォーム ファクター | SXM | PCIe |
相互接続 | NVLink:900GB/秒 PCIe Gen5:128GB/秒 |
2ウェイまたは4ウェイの NVIDIA NVLink ブリッジ 900GB/秒 PCIe Gen5: 128GB/秒 |
サーバオプション | GPUを4基または8基搭載の NVIDIA HGX H100 Partner および NVIDIA-Certified Systems |
GPUを4基または8基搭載の NVIDIA HGX H200 Partner および NVIDIA-Certified Systems |
NVIDIA AI Enterprise | アドオン | アドオン |
参考仕様。仕様は変更される場合があります。
With sparsity
NVIDIA H200 NVL が 1.8 倍の推論パフォーマンスを実現
Preliminary performance, subject to change
LLAMA2 70B Inference, Max 1st token latency 1 sec
GPT3 175B Inference, FP8, Max 1st token latency 2 sec
All scenario based on following settings: 1)128 ISL/2K OSL; 2) 1K ISL/1K OSL; 3) 2K ISL / 128 OSL
FP8 for H100 NVL and H200 NVL
2-Way and 4-Way NVLink Bridges
2種類の NVLink Bridge
NVIDIA H200 Tensor Core GPU
弊社では、科学技術計算や解析などの各種アプリケーションについて動作検証を行い、
すべてのセットアップをおこなっております。
お客様が必要とされる環境にあわせた最適なシステム構成をご提案いたします。