作成日:2026年3月21日
AIのビジネス活用を語るコンサルタントの多くは、Transformer(現代AIの基盤アーキテクチャ)の中身を理解していない。表面的な「便利さ」ではなく、AIの進化を物理的に支えるハードウェアの構造を理解することが、半導体投資における本質的な優位性になる。
1. TransformerとGPUの「運命的な相性」
従来のAI(RNNなど)は文章を頭から順に処理する直列型だった。しかし現在のLLM(ChatGPT等)の基盤であるTransformerは、文章全体を一度に計算できる並列型だ。
Transformerの核心はSelf-Attention(自己注意機構)だ。文章内の全単語ペアの「関連度」を計算するため、シーケンス長を n とすると計算量は O(n²) となる。入力が2倍になれば計算量は4倍になる。
| 入力長(トークン) | 計算量(相対値) |
|---|---|
| 1,000 | 1× |
| 2,000 | 4× |
| 4,000 | 16× |
| 128,000(GPT-4クラス) | 16,384× |
この爆発的な計算量が、CPUでは不可能な理由だ。ところがこの計算の大部分は独立した行列演算で構成されており、GPUの数千コアで同時に処理できる。これがGPUとTransformerの本質的な相性の良さだ。
2. 「メモリ爆発」とHBM:TSV積層技術の革命
計算速度は年率50%向上し続けているのに対し、メモリ転送速度は年率10%程度しか向上していない。この差(メモリウォール)が広がることで、GPUは「計算待ち」ではなく「データ待ち」の時間が増え続けている。
この問題を解決するのがHBM(High Bandwidth Memory)だ。シリコンに1024本の縦穴(TSV=Through-Silicon Via)を開け、DRAMを最大12層積み上げて接続することで、従来のGDDR6比で約20倍の帯域幅を実現している。
| メモリ種別 | 帯域幅/チップ | 代表的な用途 |
|---|---|---|
| DDR5(一般PC) | 50〜80 GB/s | デスクトップ/サーバー |
| GDDR6X(ゲームGPU) | 960 GB/s(RTX 4090全体) | ゲーミングGPU |
| HBM3(H100 GPU) | 819 GB/s/スタック | AIデータセンター |
| HBM3E(SK Hynix) | 1,000 GB/s/スタック | H200 GPU |
| HBM3E(Micron) | 1,200 GB/s/スタック | H200/次世代GPU |
| HBM4(2026年以降) | 2,000 GB/s/スタック | 次世代AIチップ |
3. ムーアの法則の現在地:3D時代へ
シリコン原子の直径は約0.23nm。現在の最先端プロセスは2nm=約8〜9個のシリコン原子の幅しかなく、物理的限界が見えている。
限界を迎えた「横方向の縮小」に代わり、「縦方向の積み上げ(3Dパッケージング)」が主役になっている。TSMCのCoWoS(Chip on Wafer on Substrate)はシリコンの土台(インターポーザ)の上にGPUとHBMを搭載し、超高密度の配線で繋ぐ技術だ。TSMCのCoWoS生産能力は2024年末の月産35,000枚から2026年末には月産130,000枚へと拡大中。それでもNVIDIAが生産能力の約60%を確保済みで、需要は供給を上回っている。
4. AI Agentが推論需要を10〜100倍にする
従来のAI:「〇〇を教えて」→ AIが答える(1回の推論)
AIエージェント:「このプロジェクトを完成させて」→ 計画→実行→チェック→修正を自律的に繰り返す(1タスクで15〜30回の推論)
| フェーズ | 計算需要 |
|---|---|
| 学習(Training) | 1回限りの巨大計算 |
| 推論(Inference) | 毎秒・大量ユーザーで常時発生 |
| Agent(自律実行) | 1タスクで推論を何十回も繰り返す |
実測データによると、エージェンティックAIは標準的な生成AIと比較して1インタラクションあたり20〜30倍のトークンを消費する。企業の6割がエージェントAI導入を進める中、インフラ需要は2027年以降も構造的に拡大する。
5. HBM市場規模と3社の競争
| 年 | HBM市場規模 | 成長率 |
|---|---|---|
| 2024 | $2.93B | — |
| 2026 | $3.8〜4.0B | +26〜27% |
| 2030 | $9.8〜12.4B | CAGR 25〜27% |
| 項目 | SK Hynix | Micron | Samsung |
|---|---|---|---|
| 帯域幅 | 1.0 TB/s | 1.2 TB/s | 1.28 TB/s |
| HBM市場シェア(2025Q2) | 62% | 21% | 17% |
| NVIDIA採用状況 | H200/B200 優先採用 | B200採用拡大 | QA問題で遅延後に承認 |
6. ASMLのEUV独占:なぜ誰も追いつけないか
EUV(極端紫外線)リソグラフィー装置は、1台あたり約2億ユーロ(約300億円)。液体スズのドロップレットを毎秒5万個噴射し、二段階レーザーでプラズマ化してEUV光を生成するという極端に複雑なプロセスだ。1台の装置に精密部品が10万点以上、輸送にはボーイング747が20機分必要になる。
ASMLはZEISS(光学)、Trumpf(レーザー)等との独占的サプライチェーンを20年かけて構築した。2025年現在も世界で唯一の供給者であり、世界のリソグラフィー装置市場の83%を占有。次世代のHigh-NA EUVは1台あたり約4億ドル(約600億円)で、2nm以下世代の唯一のゲートキーパーとなっている。
7. DeepSeekの本当のインパクト
2025年1月、DeepSeekが「GPT-4相当のモデルを約560万ドルで開発した」と発表し、半導体株が急落した。技術的に何が起きたのかを正確に理解することが重要だ。
| 変わったこと | 変わらないこと |
|---|---|
| 推論あたりのコストが10〜50倍低下 | 最先端モデルの学習にはNvidia H100が必要 |
| 小規模予算でのFrontier AI開発の可能性 | Scaling Lawは依然有効 |
| コスト効率の競争が加速 | コストが下がれば使用量が増える(Jevonsのパラドックス) |
DeepSeekのAPIは公開後にアクセス集中でたびたびダウンした。低コストモデルが普及すれば利用量が爆増し、結局インフラ投資が必要になる。これが「DeepSeekショック後も半導体株が回復した」本質的な理由だ。
8. ブル/ベアケース整理
ブルケース(強気)
- Bull #1:AIエージェント普及で推論需要が20〜30倍に構造的拡大
- Bull #2:HBMは供給制約が継続。2026年需要は前年比+77%YoYが見込まれ、価格交渉力が高い
- Bull #3:電力・冷却・ケーブル等の二次受益圏が広く、半導体ほど割高でない
ベアケース(弱気)
- Bear #1:Google TPU・Amazon Trainium等のカスタムチップがNVIDIA依存を削減
- Bear #2:大規模設備投資が2027〜28年に供給過剰→価格崩壊のリスク
- Bear #3:AIのROI証明が遅れた場合のCapEx急減速リスク
現在の株価への織り込み(2026年3月時点・概算)
| 銘柄 | PER(実績) | PEG比 | 解釈 |
|---|---|---|---|
| NVIDIA | 35〜40x | ~0.8 | 成長に対してやや割安 |
| ASML | 28〜32x | ~0.9 | 適正〜やや割高 |
| SK Hynix | 10〜15x | ~0.5 | サイクル懸念で割安圏 |
| Micron | 12〜18x | ~0.6 | 同上 |
| TSMC | 18〜22x | ~0.7 | 地政学割引が残る |
まとめ
半導体投資の核心は「AIの進化 = 計算量の爆増 = メモリ帯域の需要爆増」というシンプルな構造にある。Transformerのアーキテクチャ特性・HBMのTSV革命・CoWoSによる3D実装という三つの技術変化が重なり合い、単純な景気サイクル以上の構造的成長を生んでいる。
DeepSeekのような効率化ショックは短期的なリスクだが、中長期的にはコスト低下→利用爆増→インフラ需要増という「Jevonsのパラドックス」が働く可能性が高い。「計算需要は増える」は正しいが、「誰が儲かるか」は数年スパンで変わりうるという視点でポートフォリオを組むことが堅実な戦略となる。
※本記事は情報提供を目的としており、特定の銘柄への投資を推奨するものではありません。投資判断は自己責任で行ってください。
参考資料
- HBM4E Seen Hitting 40% of 2027 Market – TrendForce
- 2026 Market Outlook: SK hynix HBM to Fuel AI Memory Boom
- SK hynix holds 62% of HBM market – Astute Group
- HBM roadmaps for Micron, Samsung, and SK hynix – Toms Hardware
- TSMC CoWoS capacity expansion with Nvidia booking – Digitimes
- ASML and the High-NA EUV Monopoly – FinancialContent
- DeepSeek R1 Explained – WhiteFiber
- Gartner: Data Center Electricity Demand to Double by 2030
※本記事は情報提供を目的としており、特定の銘柄・金融商品への投資を推奨するものではありません。投資判断はご自身の責任のもとで行ってください。

コメント