ご利用案内
How to useNVIDIA® のデータ センター GPU を使用することで、最も要求の厳しい HPC やハイパースケール データ センターのワークロードを高速化できます。データ サイエンティストや研究者は、エネルギー探査からディープラーニングまで、幅広いアプリケーションで、従来の CPU よりもはるかに高速に数ペタバイトのデータを解析できるようになりました。さらに、NVIDIA のアクセラレータは大規模なシミュレーションをかつてない速さで実行するために必要な馬力を提供します。また、NVIDIA GPU によって、仮想デスクトップ、アプリケーション、ワークステーションに最高のパフォーマンスとユーザー密度をもたらします。
NVIDIAのデータセンター向けGPUはサーバーでの動作に最適化されており、AIサーバーやHPCサーバ用途にお勧めです。詳細な違いは下記表をご覧ください。
NVIDIA GeForce RTX グラフィックスカード |
NVIDIA RTX プロフェッショナルカード |
NVIDIA データセンター向けGPU |
|
---|---|---|---|
製品例 | GeForce RTX 4090など | RTX A4000,RTX 6000 Adaなど | H100,L40Sなど |
用途 | ゲーム/軽度なコンテンツ制作/AI | AI/HPC/プロレベルのコンテンツ制作 | AI学習・推論/大規模なシミュレーション |
搭載シチュエーション | デスクトップPC | デスクトップPC,ワークステーション | サーバー,データセンター |
レイトレーシングコア | 搭載 | 搭載 | 一部モデルで搭載 |
ハードウェアエンコーダー | 搭載 | 搭載 | 一部モデルで搭載 |
ハードウェアデコーダー | 搭載 | 搭載 | 搭載 |
メモリ容量 | ~24GB | ~48GB | ~94GB |
映像出力端子 | 搭載 | 搭載 | 一部のモデルで搭載 |
冷却方式 | アクティブ冷却 | アクティブ冷却 | パッシブ冷却 |
搭載にはGPU向けのPCIeスロットが必要となります。またすべてのモデルがパッシブ冷却を採用しているため、筐体内で風を循環させる必要があります。一部NVIDIA GPUではNVIDIAの認定サーバーでのみ動作保証が行われております。詳細はお問い合わせください。
Hopper世代の最新モデルが登場。NVLINK接続で188GBの広大メモリ領域と高いFP64性能により学習から推論まであらゆるAI用途におすすめです。
188GB HBM3
FP64:68 TFLOPS
FP32:134 TFLOPS
Ada Lovelaceアーキテクチャ採用、短納期かつ、高いFP32性能と48GBメモリでAI推論におすすめです
48GB GDDR6 ECC
FP64:N/A
FP32:91.6 TFLOPS
Ada Lovelaceアーキテクチャ採用。ロープロファイル1スロットで幅広いサーバーでご利用いただけます。
24GB GDDR6 ECC
FP64:N/A
FP32:30.3 TFLOPS
旧Ampere世代のAI/HPC向けGPU。80GBのメモリ領域と優れたFP64性能でAI学習から推論におすすめ
80GB HBM2e
FP64:9.7 TFLOPS
FP32:19.5 TFLOPS
Ampereアーキテクチャ採用。VDI環境に最適化された仮想化向けGPUカード
4× 16GB GDDR6 ECC
FP64:N/A
FP32:4× 4.5 TFLOPS
Ampereアーキテクチャ採用。1スロットと150Wの低消費電力が特徴です。
24GB GDDR6 ECC
FP64:N/A
FP32:31.2 TFLOPS
Ampereアーキテクチャ採用。ロープロファイル1スロットで幅広いサーバーでご利用いただけます。
16GB GDDR6 ECC
FP64:N/A
FP32:4.5 TFLOPS
80GB HBM3
FP64:26 TFLOPS
FP32:51 TFLOPS
後継品:NVIDIA H100 NVL 94GB PCIe
受注しておりません40GB HBM2e
FP64:9.7 TFLOPS
FP32:19.5 TFLOPS
後継品:NVIDIA A100 80GB
受注しておりません24GB HBM2
FP64:5.2 TFLOPS
FP32:82 TFLOPS
後継品:NVIDIA H100 NVL 94GB PCIe
受注しておりません