【AI学習/推論】データセンター向けNVIDIA GPU特集

サーバー/データセンター向けに最適化

NVIDIA® のデータ センター GPU を使用することで、最も要求の厳しい HPC やハイパースケール データ センターのワークロードを高速化できます。データ サイエンティストや研究者は、エネルギー探査からディープラーニングまで、幅広いアプリケーションで、従来の CPU よりもはるかに高速に数ペタバイトのデータを解析できるようになりました。さらに、NVIDIA のアクセラレータは大規模なシミュレーションをかつてない速さで実行するために必要な馬力を提供します。また、NVIDIA GPU によって、仮想デスクトップ、アプリケーション、ワークステーションに最高のパフォーマンスとユーザー密度をもたらします。

Q:NVIDIA GeForce /NVIDIA RTXプロフェッショナルカードと何が違いますか?

NVIDIAのデータセンター向けGPUはサーバーでの動作に最適化されており、AIサーバーやHPCサーバ用途にお勧めです。詳細な違いは下記表をご覧ください。

NVIDIA GeForce RTX
グラフィックスカード
NVIDIA RTX
プロフェッショナルカード
NVIDIA
データセンター向けGPU
製品例 GeForce RTX 4090など RTX A4000,RTX 6000 Adaなど H100,L40Sなど
用途 ゲーム/軽度なコンテンツ制作/AI AI/HPC/プロレベルのコンテンツ制作 AI学習・推論/大規模なシミュレーション
搭載シチュエーション デスクトップPC デスクトップPC,ワークステーション サーバー,データセンター
レイトレーシングコア 搭載 搭載 一部モデルで搭載
ハードウェアエンコーダー 搭載 搭載 一部モデルで搭載
ハードウェアデコーダー 搭載 搭載 搭載
メモリ容量 ~24GB ~48GB ~94GB
映像出力端子 搭載 搭載 一部のモデルで搭載
冷却方式 アクティブ冷却 アクティブ冷却 パッシブ冷却

Q:すべてのサーバーに搭載できますか?

搭載にはGPU向けのPCIeスロットが必要となります。またすべてのモデルがパッシブ冷却を採用しているため、筐体内で風を循環させる必要があります。一部NVIDIA GPUではNVIDIAの認定サーバーでのみ動作保証が行われております。詳細はお問い合わせください。

【新型モデル】NVIDIA H100 NVL 94GB PCIe登場

Hopper世代の最新モデルが登場。NVLINK接続で188GBの広大メモリ領域と高いFP64性能により学習から推論まであらゆるAI用途におすすめです。

188GB HBM3

FP64:68 TFLOPS

FP32:134 TFLOPS

データシートはこちら
  • NVIDIA認定サーバでの動作のみ保証対象となります
  • 世界規模で需要が高まっており納期が長期化しております
2枚+NVLinkセット:お問い合わせ 単品モデル:お問い合わせ

その他ラインナップ

  • 現行製品
  • 旧製品

【おすすめ】NVIDIA L40S

Ada Lovelaceアーキテクチャ採用、短納期かつ、高いFP32性能と48GBメモリでAI推論におすすめです

48GB GDDR6 ECC

FP64:N/A

FP32:91.6 TFLOPS

データシートはこちら お問い合わせはこちら

NVIDIA L4

Ada Lovelaceアーキテクチャ採用。ロープロファイル1スロットで幅広いサーバーでご利用いただけます。

24GB GDDR6 ECC

FP64:N/A

FP32:30.3 TFLOPS

データシートはこちら お問い合わせはこちら

【旧世代】NVIDIA A100 80GB PCIe

旧Ampere世代のAI/HPC向けGPU。80GBのメモリ領域と優れたFP64性能でAI学習から推論におすすめ

80GB HBM2e

FP64:9.7 TFLOPS

FP32:19.5 TFLOPS

データシートはこちら
  • NVIDIA認定サーバでの動作のみ保証対象となります
  • 世界規模で需要が高まっており納期が長期化しております
お問い合わせはこちら

NVIDIA A16

Ampereアーキテクチャ採用。VDI環境に最適化された仮想化向けGPUカード

4× 16GB GDDR6 ECC

FP64:N/A

FP32:4× 4.5 TFLOPS

データシートはこちら お問い合わせはこちら

NVIDIA A10

Ampereアーキテクチャ採用。1スロットと150Wの低消費電力が特徴です。

24GB GDDR6 ECC

FP64:N/A

FP32:31.2 TFLOPS

データシートはこちら お問い合わせはこちら

NVIDIA A2

Ampereアーキテクチャ採用。ロープロファイル1スロットで幅広いサーバーでご利用いただけます。

16GB GDDR6 ECC

FP64:N/A

FP32:4.5 TFLOPS

データシートはこちら お問い合わせはこちら

NVIDIA H100 80GB PCIe

80GB HBM3

FP64:26 TFLOPS

FP32:51 TFLOPS

データシートはこちら

後継品:NVIDIA H100 NVL 94GB PCIe

受注しておりません

NVIDIA L40

48GB GDDR6

FP64:N/A

FP32:51 TFLOPS

データシートはこちら

後継品:NVIDIA L40S

受注しておりません

NVIDIA A100 40GB

40GB HBM2e

FP64:9.7 TFLOPS

FP32:19.5 TFLOPS

データシートはこちら

後継品:NVIDIA A100 80GB

受注しておりません

NVIDIA A40

48GB GDDR6 ECC

FP64:N/A

FP32:37.4 TFLOPS

データシートはこちら

後継品:NVIDIA L40S PCIe

受注しておりません

NVIDIA A30

24GB HBM2

FP64:5.2 TFLOPS

FP32:82 TFLOPS

データシートはこちら

後継品:NVIDIA H100 NVL 94GB PCIe

受注しておりません

その他NVIDIA グラフィックスカード一覧

トップページに戻る