マイクロンのHBM戦略とAI半導体市場での存在感|HBM3E・HBM4の最新動向

マイクロンのHBM戦略とAI半導体市場での存在感|HBM3E・HBM4の最新動向
生成AIブームによりデータセンター向けのAIアクセラレーター(GPU・NPU)需要が爆発的に拡大しています。その心臓部に搭載される「HBM(High Bandwidth Memory:高帯域幅メモリ)」は、今やAI半導体市場最大の注目分野です。マイクロンはHBM3Eの量産を本格化させ、HBM4の開発競争においても韓国勢を追撃しています。本記事では、HBMの仕組みからマイクロンの戦略・最新動向までを分かりやすく解説します。
HBM(高帯域幅メモリ)とは何か?
HBMとは、複数のDRAMチップを縦方向に積み重ね(スタック)、TSV(シリコン貫通電極)という穴を通して超高速データ転送を実現するメモリ技術です。通常のDDR5メモリと比べて、数倍〜十数倍の帯域幅(データ転送速度)を持ちながら、省電力性も高いという特徴があります。
なぜAI用途にHBMが必要なのか?
大規模言語モデル(LLM)や画像生成AIの学習・推論では、GPUが膨大な量のデータを超高速で処理する必要があります。この際に「メモリバンド幅のボトルネック」が深刻な問題になります。HBMはGPUダイと物理的に近い位置(SoC基板上のパッケージ内)に配置され、従来の数倍の速度でデータを供給することで、AIの処理速度を飛躍的に向上させます。
HBMの世代と技術仕様比較
| 世代 | 帯域幅 | 容量(最大) | 積層数 | 主な用途・製品 |
|---|---|---|---|---|
| HBM1 | 128 GB/s | 1 GB | 4層 | AMD Fury(2015年) |
| HBM2 | 256 GB/s | 8 GB | 8層 | NVIDIA V100、AMD Vega |
| HBM2E | 460 GB/s | 16 GB | 8層 | NVIDIA A100、AMD MI200 |
| HBM3 | 819 GB/s | 24 GB | 12層 | NVIDIA H100 |
| HBM3E | 1.2 TB/s | 36 GB | 12層 | NVIDIA H200、GB200 |
| HBM4(開発中) | 2+ TB/s(目標) | 48 GB以上 | 16層以上 | 次世代AIアクセラレーター向け |
マイクロンのHBM参入の経緯
HBM分野においてマイクロンは、SK HynixやSamsungに比べて参入が遅れていました。SK HynixはHBM3をいち早くNVIDIAのH100に採用させ、HBM市場のシェア首位を独走しています。マイクロンがHBM3Eの量産・供給を本格化させたのは2024年後半からです。
マイクロンHBM3Eの特徴と競合優位性
HBM3E(8層スタック / 12層スタック)
マイクロンが2024年に量産を開始したHBM3Eは、消費電力効率(電力あたり帯域幅)において競合製品を上回ると発表されています。NVIDIAのBlackwellアーキテクチャ(B100/B200/GB200)向けへの供給が確定しており、AIサーバー市場での存在感を高めています。
- 帯域幅:最大1.2 TB/s(12層スタック時)
- 容量:最大36 GB(12層スタック)
- 電力効率:競合比で最大30%改善(マイクロン社発表)
- EUV(極端紫外線露光)技術を活用した最先端プロセス
HBM4開発競争:マイクロンの戦略
次世代規格HBM4の開発競争も激化しています。マイクロンは2025年末〜2026年にかけてHBM4のサンプル供給・量産立ち上げを目指しています。
HBM4の技術的特徴(予定)
- 帯域幅:2TB/s以上(HBM3Eの約1.7倍)
- 容量:48 GB以上(16層以上のスタック)
- ロジックダイの刷新:ベースダイにカスタムロジックを組み込み、電力効率をさらに向上
- TSMC/SKファウンドリとの連携による先端プロセス適用
マイクロンはHBM4の製造において、外部ファウンドリ(TSMC)を活用する「ハイブリッド」アプローチを採用する方向で検討していると報じられています。これにより、自社プロセス技術の制約を超えた先端製品の実現を目指しています。SK HynixはSamsung Foundry、SamsungはSamsung Foundryを使用する方向と対照的な戦略です。
AI需要とマイクロンの業績への影響
マイクロンのFY2025年度(2024年10月〜2025年9月)は過去最高水準の売上高が見込まれています。AI・データセンター向けのHBMとDDR5が収益の主要ドライバーとなっており、従来のPC向け・スマートフォン向けメモリへの依存から収益構造が大きく変化しています。
マイクロンのHBM製造プロセスの仕組み
Step 1:DRAMウェハの製造
最先端プロセス(1βnmノード、EUV適用)でDRAMダイを製造。マイクロンはEUVをいち早くDRAMに適用した数少ないメーカーの一つです。
Step 2:ダイシング・TSV形成
DRAMウェハをダイ(チップ)に切り出し、TSV(Through Silicon Via:シリコン貫通電極)という微細な穴を形成します。このTSVを通じてチップ間の超高速電気通信が可能になります。
Step 3:スタッキング(積層)
TCB(Thermal Compression Bonding)技術を用いてDRAMダイを8〜12層に積み重ねます。マイクロンはこの積層工程の精度・歩留まり向上に投資を集中しています。
Step 4:アンダーフィル・パッケージング
積層されたチップをアンダーフィル(封止樹脂)で固定し、HBMスタックとして完成。その後、顧客のGPUパッケージング工程(SoIC/CoWoS等)に組み込まれます。
まとめ:マイクロンはAI時代の「隠れた主役」
AIブームの恩恵を最も受けているのはNVIDIAのGPUですが、そのGPUの性能を最大限引き出すのに不可欠なのがHBMです。マイクロンはHBM3Eの量産展開とHBM4の開発加速により、AI半導体サプライチェーンにおける「なくてはならない存在」へと進化しつつあります。競合のSK HynixやSamsungに追いつき追い越すべく、技術革新と生産能力拡大を同時に推進しているマイクロンの動向は、今後のAI産業全体の行方を占う上でも目が離せません。
※本記事の数値・情報は2025年4月時点の公開情報を基にしています。HBM4の仕様は開発中であり変更される可能性があります。














