ChatGPT・Gemini・Claudeをはじめとした生成AI(Generative AI)の爆発的な普及により、AI計算を担うGPU・AI加速器チップへの需要が急増しています。

これらのAIチップは1枚あたり300W〜1000Wという莫大な電力を消費しており、電力供給の品質(IR降下)と冷却能力が性能向上の最大の壁になっています。

背面給電技術(BSPDN)はこのAI半導体の核心課題を解決する技術として、業界から熱大な注目を集めています。

なぜAIチップには大電力が必要か

AI(特に深層学習・大規模言語モデル)は、膨大な行列演算を高速に処理するために多数の計算コア(CUDA Core、Tensor Core等)を並列動作させます。

これらの計算コアが同時に動くと、瞬時に大量の電流がチップ全体に流れます。

この「大電流の同時供給」がIR降下問題を深刻化させます。

AIチップのTDP(設計熱損失)の急増

NVIDIA A100(2020)
400W
NVIDIA H100 SXM(2022)
700W
NVIDIA B200 SXM(2024)
1000W
NVIDIA B200(BSPDN採用後・推定)
750W(同性能で25%低減の試算)

※BSPDN採用後の数値は試算・推計であり、実際とは異なる場合があります

AIチップにおけるIR降下の深刻さ

現代のAIチップ(GPU)は数百億個のトランジスタを搭載し、ダイサイズが800〜1000mm²に達する大型チップです。

チップサイズが大きくなるほど、電源パッドからチップ中央部までの電源配線の距離が長くなり、IR降下が深刻化します。

NVIDIA H100では、全750億個のトランジスタが同時動作する瞬間に数百アンペアの電流が流れます。

この状況でIR降下を10mV以内に抑えるためには、非常に低抵抗な電源配線網が必要です。

従来の表面給電方式ではこの要求を満たすことが年々困難になっています。

数値で理解するAIチップのIR降下問題

 仮にNVIDIA H100(800mm²、700W、0.75V動作)でIR降下が20mVあったとすると、

  • 電圧降下率:20mV / 750mV = 約2.7%
  • 消費電力への影響:電圧を補正するため動作電圧を20mV高く設定する必要がある
  • 電力増加:P ∝ V² なので、約(0.77/0.75)² – 1 ≈ 5.4%の電力増加
  • 実際のムダ電力:700W × 5.4% ≈ 38W のムダが発生
  • データセンター1万台のサーバーでは:38W × 10,000 = 380kW のムダ電力

BSPDNがAIチップにもたらす具体的な改善

改善項目改善内容AIチップへの具体的効果
IR降下の低減PDN抵抗が20〜30%低減同性能でより低電圧動作が可能→消費電力5〜10%削減
電源ノイズ低減インダクタンス低下でdi/dtノイズ減少大規模AI演算時の電源変動が安定化→計算精度向上
動作周波数向上電圧マージン拡大同電力で5〜8%のクロック周波数向上→AI推論速度向上
配線密度向上表面配線が信号専用化同面積でより多くのTensor Coreを搭載可能
熱管理改善電源配線のI²R損失低減チップ温度低下→サーマルスロットリングが減少

主要AIチップメーカーへのBSPDN影響

NVIDIA(GPU)

TSMC N2P/A16でのBSPDN採用が見込まれるBlackwell後継(Rubin等)で大幅な電力効率改善が期待。データセンター全体の消費電力削減効果が大きい。

Google(TPU)

TPU v6以降でのBSPDN採用の可能性。Google自身がTSMCとの共同開発でBSPDNを積極的に評価中との情報あり。

AMD(Instinct GPU)

MI300系の後継製品でTSMC BSPDN採用の可能性。HBMとの3D積層においてもBSPDNの効果が期待される。

Intel(Gaudi)

Intel 14A(PowerVia搭載)でのGaudi後継製品への採用を計画。競合GPUに対する差別化要素として重要。

HBM(広帯域メモリ)との3D統合とBSPDN

AIチップの性能向上において「メモリ帯域」はもう一つの大きな壁です。NVIDIAのH100はHBM3メモリを採用し、3.35TB/sという広帯域を実現していますが、さらなる帯域向上のためにHBMとロジックチップを3D積層する技術(SoIC-XやFoveros Direct等)が研究されています。

BSPDNは3D積層との相性が非常に良い技術です。ロジックダイの裏面から電力を供給することで、ロジックダイ上面(HBMとの接合面)に電源配線が不要になり、接続密度の高い3D積層が実現しやすくなります。

次世代AIシステムのアーキテクチャ(2027〜2028年予測)

  • ロジックダイ(GPU/AI加速器):BSPDN採用、GAA構造、2nm以下プロセス
  • HBMメモリ:ロジックダイ上面に直接接合(Cu-Cu直接接合)
  • 電力供給:ロジックダイ裏面からBSPDNで効率よく供給
  • 冷却:ロジックダイ裏面または側面から液冷(マイクロチャンネル)
  • 帯域:ロジック-HBM間がμバンプ密度の大幅向上で10TB/s超

データセンターのエネルギー消費とBSPDNの意義

AIの普及によりデータセンターの電力消費は急増しており、2024年には世界のデータセンター電力消費が約400TWh(テラワット時)に達したと推計されています。

これは韓国全体の年間電力消費量に匹敵します。

IEAの予測では、2026年には1000TWh超になるとの試算もあります。

BSPDNによるAIチップの電力効率が5〜10%改善されると、データセンター全体では以下のような削減効果があります

前提内容
世界のAIデータセンター電力消費(2026年予測)約500TWh
BSPDNによる効率改善7%削減と仮定
年間削減電力量500 × 0.07 = 35TWh
CO₂削減量(日本の電力係数換算)約1,700万トンCO₂/年
電気代換算(電力単価10円/kWh)約3,500億円/年のコスト削減

環境・コスト両面での意義

BSPDNによる電力効率改善は、単にAIチップの性能向上に留まらず、データセンターの電力コスト削減とCO₂排出削減という社会的意義も持ちます。「グリーンAI(持続可能なAI)」の文脈でも、BSPDN技術は注目される存在です。

カスタムAIチップ(ASIC)とBSPDNの組み合わせ

GoogleのTPU、AmazonのTrainium、MicrosoftのMaia、MetaのMTIA——テクノロジー大手各社はNVIDIA GPUへの依存を減らすために独自のAIカスタムチップ(ASIC)開発を加速しています。これらのカスタムASICは特定の用途(LLM推論、学習など)に最適化されており、汎用GPUより電力効率が高くなります。

BSPDNの採用はこれらのカスタムASICにとって特に大きな恩恵をもたらします。なぜならASICは特定の動作パターンが固定されているため、BSPDNを考慮した電源設計の最適化がGPUより容易だからです。GoogleはTSMCとの緊密な協力でTPUへのBSPDN早期採用を検討中との報告があります。

まとめ:AIチップの進化を支えるBSPDN

AI半導体はBSPDNが最も大きな恩恵を受ける応用分野です。大電力・大電流・大型ダイというAIチップの特性は、IR降下・熱・配線混雑の問題を最も深刻化させますが、同時にBSPDNによる改善効果も最大化される特性でもあります。2026〜2028年にかけてBSPDNを採用したAIチップが登場すれば、AI推論性能の大幅向上、データセンターの電力コスト削減、そしてより持続可能なAIインフラの実現が見えてきます。BSPDNはAI時代の半導体インフラを定義する技術です。