AI進化と半導体投資:並列計算・メモリ爆発が生む収益機会

a computer chip with the word gat printed on it 半導体株投資

作成日:2026年3月21日

AIのビジネス活用を語るコンサルタントの多くは、Transformer(現代AIの基盤アーキテクチャ)の中身を理解していない。表面的な「便利さ」ではなく、AIの進化を物理的に支えるハードウェアの構造を理解することが、半導体投資における本質的な優位性になる。

1. TransformerとGPUの「運命的な相性」

従来のAI(RNNなど)は文章を頭から順に処理する直列型だった。しかし現在のLLM(ChatGPT等)の基盤であるTransformerは、文章全体を一度に計算できる並列型だ。

Transformerの核心はSelf-Attention(自己注意機構)だ。文章内の全単語ペアの「関連度」を計算するため、シーケンス長を n とすると計算量は O(n²) となる。入力が2倍になれば計算量は4倍になる。

入力長(トークン)計算量(相対値)
1,000
2,000
4,00016×
128,000(GPT-4クラス)16,384×

この爆発的な計算量が、CPUでは不可能な理由だ。ところがこの計算の大部分は独立した行列演算で構成されており、GPUの数千コアで同時に処理できる。これがGPUとTransformerの本質的な相性の良さだ。

2. 「メモリ爆発」とHBM:TSV積層技術の革命

計算速度は年率50%向上し続けているのに対し、メモリ転送速度は年率10%程度しか向上していない。この差(メモリウォール)が広がることで、GPUは「計算待ち」ではなく「データ待ち」の時間が増え続けている。

この問題を解決するのがHBM(High Bandwidth Memory)だ。シリコンに1024本の縦穴(TSV=Through-Silicon Via)を開け、DRAMを最大12層積み上げて接続することで、従来のGDDR6比で約20倍の帯域幅を実現している。

メモリ種別帯域幅/チップ代表的な用途
DDR5(一般PC)50〜80 GB/sデスクトップ/サーバー
GDDR6X(ゲームGPU)960 GB/s(RTX 4090全体)ゲーミングGPU
HBM3(H100 GPU)819 GB/s/スタックAIデータセンター
HBM3E(SK Hynix)1,000 GB/s/スタックH200 GPU
HBM3E(Micron)1,200 GB/s/スタックH200/次世代GPU
HBM4(2026年以降)2,000 GB/s/スタック次世代AIチップ

3. ムーアの法則の現在地:3D時代へ

シリコン原子の直径は約0.23nm。現在の最先端プロセスは2nm=約8〜9個のシリコン原子の幅しかなく、物理的限界が見えている。

限界を迎えた「横方向の縮小」に代わり、「縦方向の積み上げ(3Dパッケージング)」が主役になっている。TSMCのCoWoS(Chip on Wafer on Substrate)はシリコンの土台(インターポーザ)の上にGPUとHBMを搭載し、超高密度の配線で繋ぐ技術だ。TSMCのCoWoS生産能力は2024年末の月産35,000枚から2026年末には月産130,000枚へと拡大中。それでもNVIDIAが生産能力の約60%を確保済みで、需要は供給を上回っている。

4. AI Agentが推論需要を10〜100倍にする

従来のAI:「〇〇を教えて」→ AIが答える(1回の推論)
AIエージェント:「このプロジェクトを完成させて」→ 計画→実行→チェック→修正を自律的に繰り返す(1タスクで15〜30回の推論)

フェーズ計算需要
学習(Training)1回限りの巨大計算
推論(Inference)毎秒・大量ユーザーで常時発生
Agent(自律実行)1タスクで推論を何十回も繰り返す

実測データによると、エージェンティックAIは標準的な生成AIと比較して1インタラクションあたり20〜30倍のトークンを消費する。企業の6割がエージェントAI導入を進める中、インフラ需要は2027年以降も構造的に拡大する。

5. HBM市場規模と3社の競争

HBM市場規模成長率
2024$2.93B
2026$3.8〜4.0B+26〜27%
2030$9.8〜12.4BCAGR 25〜27%
項目SK HynixMicronSamsung
帯域幅1.0 TB/s1.2 TB/s1.28 TB/s
HBM市場シェア(2025Q2)62%21%17%
NVIDIA採用状況H200/B200 優先採用B200採用拡大QA問題で遅延後に承認

6. ASMLのEUV独占:なぜ誰も追いつけないか

EUV(極端紫外線)リソグラフィー装置は、1台あたり約2億ユーロ(約300億円)。液体スズのドロップレットを毎秒5万個噴射し、二段階レーザーでプラズマ化してEUV光を生成するという極端に複雑なプロセスだ。1台の装置に精密部品が10万点以上、輸送にはボーイング747が20機分必要になる。

ASMLはZEISS(光学)、Trumpf(レーザー)等との独占的サプライチェーンを20年かけて構築した。2025年現在も世界で唯一の供給者であり、世界のリソグラフィー装置市場の83%を占有。次世代のHigh-NA EUVは1台あたり約4億ドル(約600億円)で、2nm以下世代の唯一のゲートキーパーとなっている。

7. DeepSeekの本当のインパクト

2025年1月、DeepSeekが「GPT-4相当のモデルを約560万ドルで開発した」と発表し、半導体株が急落した。技術的に何が起きたのかを正確に理解することが重要だ。

変わったこと変わらないこと
推論あたりのコストが10〜50倍低下最先端モデルの学習にはNvidia H100が必要
小規模予算でのFrontier AI開発の可能性Scaling Lawは依然有効
コスト効率の競争が加速コストが下がれば使用量が増える(Jevonsのパラドックス)

DeepSeekのAPIは公開後にアクセス集中でたびたびダウンした。低コストモデルが普及すれば利用量が爆増し、結局インフラ投資が必要になる。これが「DeepSeekショック後も半導体株が回復した」本質的な理由だ。

8. ブル/ベアケース整理

ブルケース(強気)

  • Bull #1:AIエージェント普及で推論需要が20〜30倍に構造的拡大
  • Bull #2:HBMは供給制約が継続。2026年需要は前年比+77%YoYが見込まれ、価格交渉力が高い
  • Bull #3:電力・冷却・ケーブル等の二次受益圏が広く、半導体ほど割高でない

ベアケース(弱気)

  • Bear #1:Google TPU・Amazon Trainium等のカスタムチップがNVIDIA依存を削減
  • Bear #2:大規模設備投資が2027〜28年に供給過剰→価格崩壊のリスク
  • Bear #3:AIのROI証明が遅れた場合のCapEx急減速リスク

現在の株価への織り込み(2026年3月時点・概算)

銘柄PER(実績)PEG比解釈
NVIDIA35〜40x~0.8成長に対してやや割安
ASML28〜32x~0.9適正〜やや割高
SK Hynix10〜15x~0.5サイクル懸念で割安圏
Micron12〜18x~0.6同上
TSMC18〜22x~0.7地政学割引が残る

まとめ

半導体投資の核心は「AIの進化 = 計算量の爆増 = メモリ帯域の需要爆増」というシンプルな構造にある。Transformerのアーキテクチャ特性・HBMのTSV革命・CoWoSによる3D実装という三つの技術変化が重なり合い、単純な景気サイクル以上の構造的成長を生んでいる。

DeepSeekのような効率化ショックは短期的なリスクだが、中長期的にはコスト低下→利用爆増→インフラ需要増という「Jevonsのパラドックス」が働く可能性が高い。「計算需要は増える」は正しいが、「誰が儲かるか」は数年スパンで変わりうるという視点でポートフォリオを組むことが堅実な戦略となる。


※本記事は情報提供を目的としており、特定の銘柄への投資を推奨するものではありません。投資判断は自己責任で行ってください。


参考資料

※本記事は情報提供を目的としており、特定の銘柄・金融商品への投資を推奨するものではありません。投資判断はご自身の責任のもとで行ってください。

コメント

タイトルとURLをコピーしました