1. H100とは?
NVIDIA H100 Tensor Core GPUは、2022年に発表されたNVIDIAのデータセンター向けGPUで、Hopperアーキテクチャを採用した初の製品です。
生成AI(ChatGPTなど)、HPC(高性能計算)、クラウド推論など、大規模計算に最適化されています。
2. 主な仕様(SXM5モデル)
項目 | 内容 |
---|---|
アーキテクチャ | Hopper |
製造プロセス | TSMC 4N(カスタム4nm) |
トランジスタ数 | 約800億 |
CUDAコア数 | 16,896 |
テンソルコア | 第4世代(FP8対応) |
メモリ | 80GB HBM3 |
メモリ帯域 | 3.35 TB/s |
NVLink帯域 | 900 GB/s(4リンク) |
TDP | 700W(SXM5) |
接続技術 | CoWoS-L(TSMC製シリコンインターポーザー) |
3. 技術的特徴
3-1. FP8精度対応
新たに**FP8(8ビット浮動小数点)**をサポート
- AI学習・推論で精度を保ちつつ演算効率を大幅向上
https://semi-connect.net/fp8/
3-2. Transformer Engine
大規模言語モデル(LLM)の高速化に特化
FP8とFP16を自動切り替えし、最大効率で推論・学習を実行
3-3. NVLink & NVSwitch
複数GPUを高速接続
最大256基のH100を1つのスーパーコンピューターのように動作可能
3-4. 高帯域メモリ(HBM3)
80GBのHBM3を搭載、帯域は3.35 TB/s
CoWoS-LパッケージでGPUとメモリを密接配置
4. 主な用途
生成AI学習
ChatGPTやClaudeなどの大規模言語モデル
推論処理
自動応答、画像生成、音声認識
HPC(高性能計算)
気候シミュレーション、分子モデリング
データ分析
リアルタイム分析、金融リスク評価
5. H100とA100の比較
項目 | H100 | A100 |
---|---|---|
アーキテクチャ | Hopper | Ampere |
プロセス | 4nm (TSMC 4N) | 7nm (TSMC) |
CUDAコア | 16,896 | 6,912 |
メモリ | 80GB HBM3 | 80GB HBM2e |
メモリ帯域 | 3.35 TB/s | 2.0 TB/s |
FP8対応 | ○ | × |
性能向上 | 最大6倍(AI推論) | – |
6. 採用例
Microsoft Azure(クラウドAI学習)
Google Cloud TPU/H100インスタンス
Meta(LLM開発)
OpenAI(生成AI学習クラスタ)
7. 市場価格と供給状況(2025年)
単体価格:2万5,000〜4万ドル(需要・仕様により変動)
生成AIブームで需要が供給を大きく上回り、一部では1年以上の納期待ち
NVIDIAは2024〜2025年にHopper次世代「B100」への移行を開始予定
8. まとめ
NVIDIA H100は、AI時代の計算インフラの中心といえる存在です。
FP8精度やTransformer Engineなど、生成AIに特化した機能を備え、従来のGPUでは不可能だった速度と効率を実現しました。
その結果、H100は単なるハードウェアではなく、AI市場全体の成長を牽引する戦略製品となっています。