16.1 AI 芯片基础:GPU、TPU、NPU
16.1 AI 芯片基础:GPU、TPU、NPU
16.1.1 一个简单的类比:为什么需要专门的芯片?
CPU 的做法:一个一个数字计算
第 1 个数字:1 * 1 = 1(花时间 T)
第 2 个数字:2 * 2 = 4(花时间 T)
...
第 1000 万个:10000000 * 10000000 = ...(花时间 T)
总时间:1000 万 × T = 很长很长GPU 的做法:同时计算成千上万个数字
第 1-10000 个数字:同时计算(花时间 T)
第 10001-20000 个数字:同时计算(花时间 T)
...
总时间:1000 万 ÷ 10000 × T = 快 10000 倍!
为什么?GPU 有成千上万的"小计算单元"(核心)
每个单元做同样的事,但处理不同的数据
就像工厂里有 10000 个工人,而不是 1 个人16.1.2 三种 AI 芯片:各有所长
1. GPU(图形处理器)
2. TPU(张量处理器)
3. NPU(神经处理器)
16.1.3 硬件性能对比
2026 年的芯片战争
美国队伍
中国队伍
挑战
16.1.4 AI 推理的硬件选择
场景 1:大规模云端推理(如 ChatGPT)
场景 2:本地推理(笔记本/手机)
场景 3:企业内部推理(如 100 员工的公司)
16.1.5 生活中的类比
16.1.6 关键要点
16.1.7 思考题
最后更新于
