1. CoWoSとは?
CoWoS(Chip-on-Wafer-on-Substrate)は、TSMC(台湾積体電路製造)が開発した2.5D先端パッケージング技術です。
GPUやAIプロセッサなどのロジックチップと高帯域メモリ(HBM)を、シリコンインターポーザー上で密接に接続します。
これにより、チップ間通信が高速化し、消費電力も抑えられるため、
生成AI・HPC(高性能計算)・データセンター向けに不可欠な技術となっています。
2. CoWoSの構造と仕組み
基本構造
ロジックチップ(GPUやASIC)
HBM(高帯域メモリ)スタック
シリコンインターポーザー
有機基板(Substrate)
特徴的なのは、チップ間接続にシリコンインターポーザーを使う点。
この中に非常に細かい配線(マイクロバンプ、TSV)が作り込まれており、
広い帯域幅と低遅延を実現します。
動作イメージ
ロジックチップとHBMが、インターポーザー上で短距離・広帯域で接続
メモリ帯域は1TB/s以上も可能(H100/B100など最新AI GPU)
配線距離が短くなるため、電力効率も向上
3. CoWoSのメリットと課題
メリット
超広帯域メモリ接続:HBMを複数搭載可能
低消費電力:配線短縮によるI/O電力削減
高集積化:大型チップや複数チップを1パッケージに統合可能
課題
製造コストが高い(大型インターポーザー加工は高額)
発熱管理が難しい(GPUとHBMを密集配置)
生産能力の制約(TSMCの専用ラインが逼迫中)
4. CoWoSと競合技術
技術 | 開発企業 | 特徴 |
---|---|---|
CoWoS | TSMC | 大型インターポーザー、高帯域通信 |
EMIB | Intel | 部分的インターポーザーでコスト削減 |
InFO | TSMC | Fan-Out型、小型デバイス向け |
I-Cube | Samsung | 2.5D構造、HBM接続に対応 |
5. 主な採用製品(2025年時点)
NVIDIA H100/B100 GPU
AMD Instinct MI300
Google TPU v5e
Amazon Trainium/Inferentia
いずれも生成AI学習・推論向けのフラッグシップモデルで、HBM接続のためにCoWoSを採用。
6. 市場動向と将来性
AI需要の急拡大により、CoWoS製造能力は2024〜2025年に逼迫
TSMCはCoWoSの月産能力を2023年比で2倍以上に拡張予定
HBMの容量増加(HBM4、HBM4e)に合わせて、さらに大型化・高密度化が進む
市場規模予測(Yole Group, 2025)
年 | CoWoS市場規模 | 成長率 |
---|---|---|
2023年 | 約20億ドル | – |
2025年 | 約50億ドル | 年+40% |
2030年 | 約150億ドル | 年+25%以上 |
7. まとめ
CoWoSは、GPUとHBMを高密度かつ低消費電力で統合するための中核技術です。
AIサーバー市場の拡大とともに需要は急増しており、TSMCの製造キャパシティ拡大=AI計算能力のボトルネック解消に直結します。
今後は、発熱対策・コスト削減・多チップ統合の高度化が進み、より多様な分野(5G基地局、HPC、車載AI)に広がる可能性があります。