納期目安:
01/15頃のお届け予定です。
決済方法が、クレジット、代金引換の場合に限ります。その他の決済方法の場合はこちらをご確認ください。
※土・日・祝日の注文の場合や在庫状況によって、商品のお届けにお時間をいただく場合がございます。
アクセラレーテッド コンピューティングの大きな飛躍 * アーキテクチャ:Hopper商品説明
NVIDIA H100 Tensor コア GPU で、あらゆるワークロードのためのかつてない性能、拡張性、セキュリティを手に入れましょう。
NVIDIA NVLink Switch System により、最大 256 個のH100を接続し、エクサスケールのワークロードを高速化できます。
さらに、専用の Transformer Engine を利用することで、パラメーターが兆単位の言語モデルを実装できます。H100の複合的な技術革新により、
大規模な言語モデルが前世代と比較して30倍も高速化され、業界の一歩先を行く対話型AIが可能となります。
大規模言語モデル推論を加速
最大1750億 パラメーターの大規模言語モデル (LLM) の場合、PCIe ベースの H100 NVL with NVLink ブリッジは、Transformer Engine、NVLink、
および 188GB HBM3 メモリを利用して、あらゆるデータ センターで最適な性能と容易な拡張性を提供し、LLM を主流にしています。
H100 NVL GPU を搭載したサーバーは、電力制約のあるデータ センター環境において低遅延を維持しながら、GPT-175B モデルの性能を NVIDIA DGX A100 システムの最大 12 倍まで向上します。
NVIDIA AI Enterprise
標準サーバー向けの H100 には、NVIDIA AI Enterprise ソフトウェア スイートのサブスクリプション5年分 (エンタープライズ サポートなど) が付属しており、その非常に優れた性能によって AI を簡単に導入できます。
それにより、企業や組織は、AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。スペック
* GPUメモリー:80GB HBM2e
* メモリー帯域:2TB/s
* エラー修正コード(ECC):Yes
* FP64:26TFLOPS
* FP64 Tensor Core:51TFLOPS
* FP32:51TFLOPS
* TF32 Tensor Core:756TFOLPS
* BFLOAT16 Tensor core:1513 TFLOPS
* FP16 Tensor Core:1513 TFLOPS
* FP8 Tensor Core:3026 TFLOPS
* INT8 Tensor Core:3026 TFLOPS
* デコーダー…
・7 x NVDEC
・7 x JPEG
* インターコネクト…
・PCIe5.0 128GB/s
・NVLink: 600GB/s
* 消費電力(TDP):300-350W
* 冷却機構:パッシブ
* フォームファクタ…
・267.7 x 111
・ Dual Slot
* マルチインスタンスGPU(MIG):10GBのMIGが最大7つ
![NVH100-80G NVIDIA [グラフィックボード] SKC4810691340(3055525円)](https://tshop.r10s.jp/premoa/cabinet/pics/675/2980000404801.jpg)





](https://tshop.r10s.jp/premoa/cabinet/pics/675/2980000404801.jpg)
](https://tshop.r10s.jp/premoa/cabinet/pics/447/0197105020047.jpg)
オススメ度 3.2点
現在、44件のレビューが投稿されています。