1. トランジスタの2つの使い方 → 全製品へ
第一原理
トランジスタ(電圧で制御するスイッチ)の使い方で、全く別の製品になる:
- ON/OFFの組み合わせで計算する → ロジック半導体(プロセッサ系)
- ON/OFFの状態を保持する → メモリ半導体
- 現実世界の連続信号を変換・制御する → アナログ / パワー半導体
ロジック半導体
Central Processing Unit 何でも屋・逐次処理
Graphics Processing Unit 並列職人・AI学習
Application-Specific IC 専門職・最速
Field-Programmable 書き換え可能
System on Chip CPU+GPU+通信を統合
メモリ半導体
Static RAM 最速・高コスト・キャッシュ
※独立製品ではなくCPU/GPUに内蔵
Dynamic RAM メインメモリ・揮発性
High Bandwidth Memory DRAM積層・AI専用
NAND Flash SSD・不揮発性
NOR Flash ファームウェア
アナログ / パワー
電力変換・制御・VRM
センサー・ADC/DAC
5G・Wi-Fi・通信
光トランシーバ
2. ロジック半導体 — 計算する4兄弟 + SoC
全部「計算するチップ」だが、何に特化しているかが違う。汎用性と速度のトレードオフ。
命令を1つずつ順番に処理する何でも屋
単純な計算を数千個同時にやる並列職人
1つの仕事だけ超高速にやる専門職
出荷後にロジックを書き換えられる転職可能な職人
CPU+GPU+AI+通信を1チップに統合した全部入り
CPU(Central Processing Unit / 中央演算装置)
何でも屋。命令を1つずつ順番に処理する。OSやアプリケーションを動かす頭脳。
例: Intel Core, AMD Ryzen, Apple Mシリーズ(のCPUコア部分)
GPU(Graphics Processing Unit / 画像処理装置)
並列職人。単純な計算を何千個も同時にやる。元はゲームの画像描画用 → AIの行列演算に転用されて大爆発。
例: NVIDIA H100/B200, AMD MI300X
なぜAIにGPUが必要か: AIの学習 = 巨大な行列の掛け算の繰り返し。CPUは「1つずつ丁寧に」計算するが、GPUは「数千個を同時に雑に」計算できる。AIには後者が圧倒的に速い。
ASIC(Application-Specific IC / 特定用途向けIC)
専門職。1つの仕事だけ超高速にやる。汎用性はゼロだが、その仕事ではGPUより速くて省電力。
例: Google TPU(Tensor Processing Unit / AI学習専用), ビットコインマイニングチップ, Broadcomのカスタムチップ
投資的に重要: GoogleやAmazonが自社ASIC(カスタムチップ)を作り始めている = NVIDIAのGPU独占への対抗。これが「NVIDIA vs カスタムASIC」の構図。
FPGA(Field-Programmable Gate Array / 書き換え可能ゲートアレイ)
転職できる職人。出荷後にロジック回路を書き換えられる。試作品や少量生産に向く。
例: Intel(Altera), AMD(Xilinx)
SoC(System on Chip / システムオンチップ)
全部入り。CPU + GPU + AI専用回路 + 通信チップ + メモリコントローラ等を1チップに統合。
例: Apple M4(MacBook), Qualcomm Snapdragon(スマホ), MediaTek Dimensity
AppleのMシリーズはSoC。CPU, GPU, Neural Engine(AI用ASIC), メモリコントローラを1チップに統合 → だからMacBookが薄くて省電力。統合すると距離が短くなり通信も速くなる。
💻 プログラミングで言うと
CPU = "Python: 何でもできるが特別速くはない"
GPU = "NumPy/CUDA: 行列演算を大量に並列実行"
ASIC = "回路レベルで焼き込んだ専用アルゴリズム。書き換え不可"
FPGA = "設定ファイルで動作が変わるハードウェア。動的ディスパッチ"
SoC = "モノリシックアプリ: 全サービスを1バイナリに統合"
📚 より詳しく
- YouTube: CPUとGPUの違い — 並列処理の概念を視覚的に理解
- Wikipedia: ASIC — カスタムチップの設計・製造プロセス
- Wikipedia: SoC — Apple Silicon等の統合チップ設計の歴史
3. メモリ半導体 — 速度順に5種類
全部「データを記憶するチップ」だが、速度・コスト・揮発性が違う。物理的な仕組みの違いがトレードオフを生む。
メモリ5種の比較
| 種類 | 正式名称 | 速度 | 揮発性 | 物理的仕組み | 用途 |
|---|---|---|---|---|---|
| SRAM | Static RAM | 最速(~1ns) | 揮発 | トランジスタ6個でフリップフロップ回路。安定だが面積大 | CPU/GPUのキャッシュ(L1/L2/L3) |
| DRAM | Dynamic RAM | 速い(~100ns) | 揮発 | トランジスタ1個 + コンデンサ1個。電荷が漏れるので要リフレッシュ | PCのメインメモリ(16GB等) |
| HBM | High Bandwidth Memory | 速い + 広帯域 | 揮発 | DRAMをTSVで積層 + GPU隣に配置。帯域1024bit | AI GPU専用の高速メモリ |
| NAND | NAND Flash | 遅い(~50,000ns) | 不揮発 | 浮遊ゲートに電子を閉じ込め。絶縁膜で保持 | SSD、USBメモリ、スマホ |
| NOR | NOR Flash | 中間 | 不揮発 | NANDと類似だがランダム読み出しが速い | ファームウェア(起動プログラム) |
SRAMとDRAMの物理的な違い
| SRAM(Static) | DRAM(Dynamic) | |
|---|---|---|
| 1bitに必要なもの | トランジスタ6個 | トランジスタ1個 + コンデンサ1個 |
| 面積 | 大きい(6倍のトランジスタ) | 小さい(高密度に実装可能) |
| コスト | 超高い | 安い |
| リフレッシュ | 不要(Static=静的) | 必要(Dynamic=動的に電荷補充) |
| 速度 | ~1ns(DRAMの100倍速い) | ~100ns |
名前の由来: SRAMは電荷のリフレッシュが不要だから「Static(静的)」。DRAMは定期的にリフレッシュが必要だから「Dynamic(動的)」。
💡 SRAMは誰が作っている? — 他のメモリとの決定的な違い
DRAM・NAND は専業メーカー(SK Hynix, Samsung, Micron 等)が独立したチップとして製造・販売する。しかしSRAMは違う。
SRAMはCPUやGPUの中に最初から作り込まれている。独立した製品として売られることはほぼない。
| メモリ | 誰が作る | 売り方 |
|---|---|---|
| DRAM | SK Hynix, Samsung, Micron | 独立チップとして販売 |
| HBM | SK Hynix, Samsung, Micron | 独立チップとして販売(GPU隣に実装) |
| NAND | Samsung, Kioxia, WD, Micron | SSD等として販売 |
| SRAM | TSMCやSamsungがCPU/GPUと一緒に製造 | 独立販売ではない。キャッシュとしてチップに内蔵 |
例: NVIDIAのH100チップ(TSMCが製造する1枚のシリコン)
H100チップ
├── 演算コア(トランジスタ800億個)
├── L2キャッシュ: 50MB の SRAM ← チップ内に内蔵!
└── メモリコントローラ(外部のHBMと通信する回路)
SRAMはトランジスタ6個で1bitのため面積を食う。ダイ写真(チップの顕微鏡写真)を見ると、半分近くがSRAMキャッシュで占められていることもある。
投資的な意味: 「SRAMメーカー」という銘柄は存在しない。SRAMの性能はTSMCの製造プロセスの良し悪しに依存する。DRAMやNANDとは全く別の市場構造。
📚 より詳しく
- YouTube: SRAMとDRAMの違い — フリップフロップ vs コンデンサの仕組み
- Wikipedia: Flash memory — NAND/NORフラッシュの動作原理と歴史(NANDは東芝が発明)
4. アナログ / パワー半導体 — 地味だが不可欠な裏方
ロジックとメモリが「デジタルの世界(0と1)」で動くのに対し、これらは「現実世界の連続信号」を扱う。
パワー半導体 — 電力の番人
電圧を変換・制御するチップ。AIサーバーのGPU 1台にVRM(Voltage Regulator Module / 電圧変換モジュール)が数十個載っている。
例: Texas Instruments, Infineon, ルネサスエレクトロニクス, 富士電機
投資的に重要: AI GPU 1台あたりのパワー半導体搭載量は年々増加。GPUが電力を食うほど、電力を変換・制御するチップも増える。
その他のアナログ半導体
| 種類 | 役割 | 例 |
|---|---|---|
| ADC/DAC | アナログ⇔デジタル変換(Analog-to-Digital / Digital-to-Analog Converter) | センサーの信号をデジタルに変換 |
| RF半導体 | 無線通信(Radio Frequency): 5G, Wi-Fi, Bluetooth | Qualcomm, Broadcom |
| 光半導体 | 光信号 ⇔ 電気信号の変換。データセンター内の高速通信 | Coherent, Broadcom(光トランシーバ) |
📚 より詳しく
- Wikipedia: Power semiconductor — SiC(炭化ケイ素)/GaN(窒化ガリウム)等の次世代パワー半導体
5. AIサーバーの中身 — 半導体の全員集合
ここまで学んだ半導体が、AIサーバー1台の中にどう配置されているか。全部が半導体。
1台のサーバーに載っている半導体チップ
| チップ | 種類 | 個数 | 主要企業 |
|---|---|---|---|
| GPU | ロジック | 8個 | NVIDIA(設計)→ TSMC(製造) |
| HBM | メモリ | GPU1つにつき6-8個 | SK Hynix, Samsung, Micron |
| CPU | ロジック | 1-2個 | AMD, Intel |
| DRAM | メモリ | 数十個 | Samsung, SK Hynix, Micron |
| SSD(NAND) | メモリ | 数個 | Samsung, Kioxia, WD |
| パワー半導体 | パワー | 数十個 | TI, Infineon, ルネサス |
| NIC | ロジック | 1-2個 | NVIDIA(Mellanox), Broadcom |
| 光トランシーバ | 光半導体 | 複数 | Coherent, Broadcom |
投資の視点: 「AIサーバーが何万台も建設される」= この表の全チップの需要が爆発する。GPUだけでなく、HBM、パワー半導体、光トランシーバも全部ボトルネックになりうる。
📖 このページの用語集
| 略語 | 正式名称 | 一言で |
|---|---|---|
| CPU | Central Processing Unit | 何でも屋。逐次処理。OSやアプリの頭脳 |
| GPU | Graphics Processing Unit | 並列職人。AI学習の主役。数千コアで同時計算 |
| ASIC | Application-Specific IC | 専門職。1つの仕事だけ最速。Google TPU等 |
| FPGA | Field-Programmable Gate Array | 書き換え可能なロジック。試作・少量向き |
| SoC | System on Chip | 全部入り1チップ。Apple M4、Snapdragon |
| SRAM | Static Random Access Memory | 最速メモリ。6トランジスタ/bit。CPU内キャッシュ |
| DRAM | Dynamic Random Access Memory | メインメモリ。1トランジスタ+1コンデンサ/bit |
| HBM | High Bandwidth Memory | DRAMをTSVで積層しGPU隣に配置 |
| NAND | NAND Flash Memory | 不揮発性ストレージ。SSD/USBメモリ |
| NOR | NOR Flash Memory | 不揮発性。ファームウェア格納用 |
| VRM | Voltage Regulator Module | 電圧変換モジュール。GPU 1台に数十個 |
| NIC | Network Interface Card | ネットワーク接続カード |
| ADC/DAC | Analog-to-Digital / Digital-to-Analog Converter | アナログ⇔デジタルの変換器 |
| RF | Radio Frequency | 無線周波数。5G/Wi-Fi用チップ |
| TPU | Tensor Processing Unit | GoogleのAI専用ASIC |
🧠 セルフチェック
Q1: CPU と GPU の根本的な違いは何か? プログラミングで例えると?
答えを見る
CPU = 逐次処理(1つずつ丁寧に)。GPU = 並列処理(数千個を同時に雑に)。AIの行列演算には後者が圧倒的に有利。Pythonの for ループ vs NumPy のベクトル演算。
Q2: ASIC と GPU の違いは? Google TPU はなぜ存在する?
答えを見る
GPU は汎用的な並列計算。ASIC は特定の計算だけに最適化(汎用性ゼロ)。Google TPU は AI の行列演算に特化した ASIC で、GPUより省電力で高効率。ただし AI 以外には使えない。
Q3: SRAM が DRAM より速い物理的理由は? なぜメインメモリに使わない?
答えを見る
SRAM はトランジスタ6個でフリップフロップ回路を組む → 電荷のリフレッシュ不要で安定・高速。しかし6個も使うので面積が大きく高コスト。メインメモリに使うとチップが巨大になりすぎる。
Q4: AIサーバー1台に載っている半導体の種類を5つ以上挙げよ。
答えを見る
GPU, HBM, CPU, DRAM, SSD(NAND), パワー半導体(VRM), NIC(ネットワークカード), 光トランシーバ。全部が半導体で、全部の需要がAIブームで爆発している。