Lesson 2 — 半導体の地図:トランジスタから全製品へ

Level 1 2026-02-25 軸: 技術 / 構造

トランジスタから始まる半導体製品の全分類。ロジック半導体4兄弟、メモリ5種、アナログ/パワー、そしてAIサーバーの中で全員がどう配置されるか。

1. トランジスタの2つの使い方 → 全製品へ

第一原理

トランジスタ(電圧で制御するスイッチ)の使い方で、全く別の製品になる:

  • ON/OFFの組み合わせで計算する → ロジック半導体(プロセッサ系)
  • ON/OFFの状態を保持する → メモリ半導体
  • 現実世界の連続信号を変換・制御する → アナログ / パワー半導体
🔌 トランジスタ(電圧で制御するスイッチ)
⚙️ 計算に使う
ロジック半導体
CPU
Central Processing Unit 何でも屋・逐次処理
GPU
Graphics Processing Unit 並列職人・AI学習
ASIC
Application-Specific IC 専門職・最速
FPGA
Field-Programmable 書き換え可能
SoC
System on Chip CPU+GPU+通信を統合
💾 記憶に使う
メモリ半導体
SRAM
Static RAM 最速・高コスト・キャッシュ
※独立製品ではなくCPU/GPUに内蔵
DRAM
Dynamic RAM メインメモリ・揮発性
HBM
High Bandwidth Memory DRAM積層・AI専用
NAND
NAND Flash SSD・不揮発性
NOR
NOR Flash ファームウェア
🔋 変換・制御
アナログ / パワー
パワー半導体
電力変換・制御・VRM
アナログ
センサー・ADC/DAC
RF半導体
5G・Wi-Fi・通信
光半導体
光トランシーバ

2. ロジック半導体 — 計算する4兄弟 + SoC

全部「計算するチップ」だが、何に特化しているかが違う。汎用性と速度のトレードオフ。

CPU
Central Processing Unit

命令を1つずつ順番に処理する何でも屋

汎用性 ★★★★★ 速度 ★★☆☆☆
Intel Core / AMD Ryzen / Apple M
GPU
Graphics Processing Unit

単純な計算を数千個同時にやる並列職人

汎用性 ★★★☆☆ 速度 ★★★★☆
NVIDIA H100 / B200 / AMD MI300X
ASIC
Application-Specific IC

1つの仕事だけ超高速にやる専門職

汎用性 ★☆☆☆☆ 速度 ★★★★★
Google TPU / Bitcoin ASIC / Broadcom
FPGA
Field-Programmable Gate Array

出荷後にロジックを書き換えられる転職可能な職人

汎用性 ★★★★☆ 速度 ★★★☆☆
Intel Altera / AMD Xilinx
SoC
System on Chip

CPU+GPU+AI+通信を1チップに統合した全部入り

統合度 ★★★★★ 省電力 ★★★★☆
Apple M4 / Qualcomm Snapdragon

CPU(Central Processing Unit / 中央演算装置)

何でも屋。命令を1つずつ順番に処理する。OSやアプリケーションを動かす頭脳。

例: Intel Core, AMD Ryzen, Apple Mシリーズ(のCPUコア部分)

GPU(Graphics Processing Unit / 画像処理装置)

並列職人。単純な計算を何千個も同時にやる。元はゲームの画像描画用 → AIの行列演算に転用されて大爆発。

例: NVIDIA H100/B200, AMD MI300X

なぜAIにGPUが必要か: AIの学習 = 巨大な行列の掛け算の繰り返し。CPUは「1つずつ丁寧に」計算するが、GPUは「数千個を同時に雑に」計算できる。AIには後者が圧倒的に速い。

ASIC(Application-Specific IC / 特定用途向けIC)

専門職。1つの仕事だけ超高速にやる。汎用性はゼロだが、その仕事ではGPUより速くて省電力。

例: Google TPU(Tensor Processing Unit / AI学習専用), ビットコインマイニングチップ, Broadcomのカスタムチップ

投資的に重要: GoogleやAmazonが自社ASIC(カスタムチップ)を作り始めている = NVIDIAのGPU独占への対抗。これが「NVIDIA vs カスタムASIC」の構図。

FPGA(Field-Programmable Gate Array / 書き換え可能ゲートアレイ)

転職できる職人。出荷後にロジック回路を書き換えられる。試作品や少量生産に向く。

例: Intel(Altera), AMD(Xilinx)

SoC(System on Chip / システムオンチップ)

全部入り。CPU + GPU + AI専用回路 + 通信チップ + メモリコントローラ等を1チップに統合。

例: Apple M4(MacBook), Qualcomm Snapdragon(スマホ), MediaTek Dimensity

AppleのMシリーズはSoC。CPU, GPU, Neural Engine(AI用ASIC), メモリコントローラを1チップに統合 → だからMacBookが薄くて省電力。統合すると距離が短くなり通信も速くなる。

💻 プログラミングで言うと

CPU  = "Python: 何でもできるが特別速くはない"
GPU  = "NumPy/CUDA: 行列演算を大量に並列実行"
ASIC = "回路レベルで焼き込んだ専用アルゴリズム。書き換え不可"
FPGA = "設定ファイルで動作が変わるハードウェア。動的ディスパッチ"
SoC  = "モノリシックアプリ: 全サービスを1バイナリに統合"
📚 より詳しく

3. メモリ半導体 — 速度順に5種類

全部「データを記憶するチップ」だが、速度・コスト・揮発性が違う。物理的な仕組みの違いがトレードオフを生む。

メモリ5種の比較

種類正式名称速度揮発性物理的仕組み用途
SRAMStatic RAM最速(~1ns)揮発 トランジスタ6個でフリップフロップ回路。安定だが面積大 CPU/GPUのキャッシュ(L1/L2/L3)
DRAMDynamic RAM速い(~100ns)揮発 トランジスタ1個 + コンデンサ1個。電荷が漏れるので要リフレッシュ PCのメインメモリ(16GB等)
HBMHigh Bandwidth Memory速い + 広帯域揮発 DRAMをTSVで積層 + GPU隣に配置。帯域1024bit AI GPU専用の高速メモリ
NANDNAND Flash遅い(~50,000ns)不揮発 浮遊ゲートに電子を閉じ込め。絶縁膜で保持 SSD、USBメモリ、スマホ
NORNOR Flash中間不揮発 NANDと類似だがランダム読み出しが速い ファームウェア(起動プログラム)

SRAMとDRAMの物理的な違い

SRAM(Static)DRAM(Dynamic)
1bitに必要なものトランジスタ6個トランジスタ1個 + コンデンサ1個
面積大きい(6倍のトランジスタ)小さい(高密度に実装可能)
コスト超高い安い
リフレッシュ不要(Static=静的)必要(Dynamic=動的に電荷補充)
速度~1ns(DRAMの100倍速い)~100ns

名前の由来: SRAMは電荷のリフレッシュが不要だから「Static(静的)」。DRAMは定期的にリフレッシュが必要だから「Dynamic(動的)」。

💡 SRAMは誰が作っている? — 他のメモリとの決定的な違い

DRAM・NAND は専業メーカー(SK Hynix, Samsung, Micron 等)が独立したチップとして製造・販売する。しかしSRAMは違う。

SRAMはCPUやGPUの中に最初から作り込まれている。独立した製品として売られることはほぼない。

メモリ誰が作る売り方
DRAMSK Hynix, Samsung, Micron独立チップとして販売
HBMSK Hynix, Samsung, Micron独立チップとして販売(GPU隣に実装)
NANDSamsung, Kioxia, WD, MicronSSD等として販売
SRAMTSMCやSamsungがCPU/GPUと一緒に製造独立販売ではない。キャッシュとしてチップに内蔵

例: NVIDIAのH100チップ(TSMCが製造する1枚のシリコン)

H100チップ
├── 演算コア(トランジスタ800億個)
├── L2キャッシュ: 50MB の SRAM  ← チップ内に内蔵!
└── メモリコントローラ(外部のHBMと通信する回路)

SRAMはトランジスタ6個で1bitのため面積を食う。ダイ写真(チップの顕微鏡写真)を見ると、半分近くがSRAMキャッシュで占められていることもある。

投資的な意味: 「SRAMメーカー」という銘柄は存在しない。SRAMの性能はTSMCの製造プロセスの良し悪しに依存する。DRAMやNANDとは全く別の市場構造。

📚 より詳しく

4. アナログ / パワー半導体 — 地味だが不可欠な裏方

ロジックとメモリが「デジタルの世界(0と1)」で動くのに対し、これらは「現実世界の連続信号」を扱う。

パワー半導体 — 電力の番人

電圧を変換・制御するチップ。AIサーバーのGPU 1台にVRM(Voltage Regulator Module / 電圧変換モジュール)が数十個載っている。

例: Texas Instruments, Infineon, ルネサスエレクトロニクス, 富士電機

投資的に重要: AI GPU 1台あたりのパワー半導体搭載量は年々増加。GPUが電力を食うほど、電力を変換・制御するチップも増える。

その他のアナログ半導体

種類役割
ADC/DACアナログ⇔デジタル変換(Analog-to-Digital / Digital-to-Analog Converter)センサーの信号をデジタルに変換
RF半導体無線通信(Radio Frequency): 5G, Wi-Fi, BluetoothQualcomm, Broadcom
光半導体光信号 ⇔ 電気信号の変換。データセンター内の高速通信Coherent, Broadcom(光トランシーバ)
📚 より詳しく

5. AIサーバーの中身 — 半導体の全員集合

ここまで学んだ半導体が、AIサーバー1台の中にどう配置されているか。全部が半導体。

AIサーバーの中身

1台のサーバーに載っている半導体チップ

チップ種類個数主要企業
GPUロジック8個NVIDIA(設計)→ TSMC(製造)
HBMメモリGPU1つにつき6-8個SK Hynix, Samsung, Micron
CPUロジック1-2個AMD, Intel
DRAMメモリ数十個Samsung, SK Hynix, Micron
SSD(NAND)メモリ数個Samsung, Kioxia, WD
パワー半導体パワー数十個TI, Infineon, ルネサス
NICロジック1-2個NVIDIA(Mellanox), Broadcom
光トランシーバ光半導体複数Coherent, Broadcom

投資の視点: 「AIサーバーが何万台も建設される」= この表の全チップの需要が爆発する。GPUだけでなく、HBM、パワー半導体、光トランシーバも全部ボトルネックになりうる。

📖 このページの用語集

略語正式名称一言で
CPUCentral Processing Unit何でも屋。逐次処理。OSやアプリの頭脳
GPUGraphics Processing Unit並列職人。AI学習の主役。数千コアで同時計算
ASICApplication-Specific IC専門職。1つの仕事だけ最速。Google TPU等
FPGAField-Programmable Gate Array書き換え可能なロジック。試作・少量向き
SoCSystem on Chip全部入り1チップ。Apple M4、Snapdragon
SRAMStatic Random Access Memory最速メモリ。6トランジスタ/bit。CPU内キャッシュ
DRAMDynamic Random Access Memoryメインメモリ。1トランジスタ+1コンデンサ/bit
HBMHigh Bandwidth MemoryDRAMをTSVで積層しGPU隣に配置
NANDNAND Flash Memory不揮発性ストレージ。SSD/USBメモリ
NORNOR Flash Memory不揮発性。ファームウェア格納用
VRMVoltage Regulator Module電圧変換モジュール。GPU 1台に数十個
NICNetwork Interface Cardネットワーク接続カード
ADC/DACAnalog-to-Digital / Digital-to-Analog Converterアナログ⇔デジタルの変換器
RFRadio Frequency無線周波数。5G/Wi-Fi用チップ
TPUTensor Processing UnitGoogleのAI専用ASIC

🧠 セルフチェック

Q1: CPU と GPU の根本的な違いは何か? プログラミングで例えると?

答えを見る

CPU = 逐次処理(1つずつ丁寧に)。GPU = 並列処理(数千個を同時に雑に)。AIの行列演算には後者が圧倒的に有利。Pythonの for ループ vs NumPy のベクトル演算。

Q2: ASIC と GPU の違いは? Google TPU はなぜ存在する?

答えを見る

GPU は汎用的な並列計算。ASIC は特定の計算だけに最適化(汎用性ゼロ)。Google TPU は AI の行列演算に特化した ASIC で、GPUより省電力で高効率。ただし AI 以外には使えない。

Q3: SRAM が DRAM より速い物理的理由は? なぜメインメモリに使わない?

答えを見る

SRAM はトランジスタ6個でフリップフロップ回路を組む → 電荷のリフレッシュ不要で安定・高速。しかし6個も使うので面積が大きく高コスト。メインメモリに使うとチップが巨大になりすぎる。

Q4: AIサーバー1台に載っている半導体の種類を5つ以上挙げよ。

答えを見る

GPU, HBM, CPU, DRAM, SSD(NAND), パワー半導体(VRM), NIC(ネットワークカード), 光トランシーバ。全部が半導体で、全部の需要がAIブームで爆発している。