Chapter 7

第7章: メモリ半導体 — DRAM・NAND・そしてHBM

計算には、必ず「覚えておく場所」が要る。 机の上に広げるメモ用紙 ── それがメモリだ。

そして 2023 年、ある特殊なメモリ「HBM」が、 NVIDIA の最先端 GPU よりも先に枯渇する事態が起きた。

GPU の在庫はある、HBM が足りないから出荷できない」 ── これが、それまで脇役だったメモリを、ロジックと並ぶ主役の地位に押し上げた瞬間である。

7.1 メモリ半導体とは何か

メモリ半導体 とは、ひとことで言えば 「情報を覚えておく」半導体。 ロジック(CPU/GPU)が計算するのに対し、メモリは「いま使うデータ」「保存しておくデータ」を保持する役割を持つ。

メモリは性格によって 2 つの大分類がある。

種類電源を切ると速さ単価
揮発性メモリ (Volatile)消える速い高い
不揮発性メモリ (Non-volatile)残る遅い安い

揮発性の代表が DRAM、不揮発性の代表が NAND フラッシュ。 さらに CPU 内のごく速いキャッシュとして SRAM がいる。

7.2 DRAM — 揮発する高速メモ用紙

DRAM (Dynamic Random Access Memory) は、PC やスマホの 主記憶 (メインメモリ) として使われるメモリ。

「メモリ 16GB」「メモリ 32GB」と書いてあったら、まず DRAM の容量のこと。

DRAM の構造は驚くほどシンプル:

シンプルだから、1 mm² あたり数億ビットを詰め込める。 ところが弱点がある ── キャパシタの電荷は時間とともに漏れる。 だから DRAM は 数十ミリ秒ごとに全セルを読み出して書き直す(リフレッシュ) 必要がある。

これが “Dynamic” の意味だ。常に再書き込みしないと忘れる、動的なメモリ。

DRAM は 速くて密度が高いが、電源を切ると消える
PC・スマホの主記憶、サーバの作業用、AI GPU の隣にある HBM 、これらは全部 DRAM。

主要プレイヤー(DRAM 市場シェア、2024 年):

会社シェア本社
Samsung約 41%韓国
SK hynix約 35%韓国
Micron約 22%米国
中国系 (CXMT 等)数%中国

実質 3 社の寡占。これが世界の主記憶を支えている。

7.3 NAND — 電源を切っても消えない倉庫

NAND フラッシュ は、SSD・USB メモリ・SD カード・スマホストレージとして使われる 不揮発性メモリ

「ストレージ 256GB」「512GB」と書いてあったら、たいてい NAND の容量。

NAND は 電荷を絶縁体で囲い込んで保持 する仕組み。一度書き込むと、電源を切っても 数年〜十数年 データを保持する。

DRAM との違い:

項目DRAMNAND
揮発性揮発不揮発
アクセス速度数 ns(ナノ秒)数十 μs(マイクロ秒)
寿命半永久書込み回数に制限あり
用途主記憶ストレージ

NAND の進化の方向は、3D 化(縦積み)。平面に詰め込む限界を突破するため、メモリセルを 数百層 まで縦に積み上げている(2024 年時点で 200〜300 層)。 これが「3D NAND」と呼ばれる構造で、いまや NAND の標準になっている。

主要プレイヤー:

会社本社
Samsung韓国
SK hynix(Solidigm 含む)韓国
Kioxia(旧東芝メモリ)日本
Micron米国
Western Digital(SanDisk)米国

NAND は DRAM よりプレイヤー数が多く、競争が激しい。

7.4 SRAM — CPU のすぐ脇にある小さな高速メモ

SRAM (Static Random Access Memory) は、CPU 内のキャッシュメモリ として使われる超高速メモリ。

DRAM と違って、キャパシタを使わず トランジスタ 6 個 で 1 ビットを保持する(6T セル)。常に正帰還で値を保持し続けるので「Static」。

項目SRAMDRAM
1 ビットあたりの素子数6 トランジスタ1T1C
速さDRAM より 10 倍以上速い速い
密度低い(場所を食う)高い
リフレッシュ不要必要
用途CPU/GPU 内蔵キャッシュ主記憶

SRAM は CPU/GPU チップの内側に組み込まれる。だから「SRAM チップ」というニュースはほぼ出ない。 しかしロジックチップの面積の 3 〜 5 割 は SRAM が占めていて、地味に巨大なマーケットの裏方になっている。

7.5 HBM — GPUの脇に積み上がる高帯域メモリ

ここからが本章のクライマックス。

HBM (High Bandwidth Memory) は、DRAM を縦に積み上げて GPU の隣に並べた特殊なメモリ。 2013 年に SK hynix が AMD と共同で初代を発表、当初は限定的な用途だった。

ところが、AI 時代に状況が一変する。

生成 AI の学習・推論は、計算より「データの輸送」がボトルネック になる。
GPU の演算ユニットは秒間数兆回計算できるが、メモリから次の値を持ってこないと計算できない。
これを「メモリウォール」と呼ぶ。

HBM は、

ことで、通常の DRAM の 数十倍 の帯域幅を実現する。

GPU ダイHBM スタック(DRAMを縦に8〜16層積層)HBM スタックシリコンインターポーザ(基板の上の中間配線層)この構造を CoWoS と呼ぶ(第12章で詳述)
図 7.1 — HBM と GPU の関係。GPU の両脇に HBM スタックを並べる。

世代別 HBM:

世代容量 / スタック帯域 (GB/s)採用例
HBM2e16GB約 460NVIDIA A100
HBM324GB約 819NVIDIA H100
HBM3e36GB約 1200NVIDIA H200、B100/B200
HBM448GB+約 1500+次世代 AI GPU 向け(量産前夜)

7.6 なぜHBMがAI時代に高騰したのか

HBM は通常の DRAM の数倍の値段がする。 それでも品薄が続いている。理由は:

  1. 製造が極端に難しい: TSV や 8 〜 16 層積層は歩留まりが低い
  2. AI GPU には HBM が不可欠: 通常 DRAM では帯域が足りない
  3. AI ブームで需要が爆発: 2023 年以降、需要が供給を遥かに上回る

その結果、HBM のシェア争いがメモリ業界の主戦場になった。 2024 年時点での HBM シェアは概ね:

会社HBM シェア
SK hynix約 50%(首位)
Samsung約 40%
Micron約 10%(HBM3e で急上昇中)

NVIDIA は SK hynix を最優先パートナー にしている。 DRAM では Samsung が長年王者だったが、HBM だけは SK hynix が先行した。 これが現在のメモリ業界の最大の物語である。

DRAM 全体では Samsung が王者なのに、HBM では SK hynix が勝っている。
理由は TSV と積層の量産技術 で SK hynix が先行していたから。
最先端の闘いは、「使うチップそのもの」よりも「作る難しさ」 で決まるという好例だ。

7.7 三国志 ── サムスン、SKハイニックス、マイクロン

最後に、メモリ業界の構造を見ておこう。

過去 30 年間、メモリ業界は 「過剰投資 → 不況 → 弱者撤退 → 寡占」 という景気サイクルを何度も繰り返してきた。

歴史的撤退例:

NAND は競争が少しマイルドだが、それでも 5 社(Samsung、SK hynix、Kioxia、Micron、Western Digital)が世界の 90% 以上を占める。

メモリは典型的なコモディティ。差別化が難しく、価格競争に陥りやすい。
みんなが余ったときは皆減らさず生産を続け、底値で叩き合う」ような構造があり、半導体産業の中でも特に 景気変動が激しい
ニュースで「メモリ価格、4 半期で 30% 上昇」「メモリ価格、半年で半額」のような見出しが頻発するのはこのため。

7.8 これから ── CXL、PIM、新メモリ

将来の話を少しだけ。

これらが本格化すれば、メモリと計算の境界が曖昧になる。 「メモリ半導体」というカテゴリ自体が再定義される可能性がある。

7.9 この章の振り返り

この章で読めるようになるニュース

次章は、アナログ・パワー半導体。 微細化とは別の物差しで動く、「縁の下の主役」たちの世界へ。