本章小结
本章小结
核心知识
AI 芯片的三驾马车
GPU(H100/B200)
最强
700W
$35k/块
训练、云推理
TPU(v5/v6)
最强
450W
云端
训练、推理
NPU(手机/笔记本)
一般
5W
摊销
本地推理
关键认识: 没有绝对最强的芯片,只有最适合的选择。
量子计算的三个关键概念
量子叠加(Superposition)
量子比特同时是 0 和 1
1 个量子比特 = 同时处理 2 种状态
10 个量子比特 = 同时处理 1024 种状态
量子纠缠(Entanglement)
两个量子比特可以相关联
观测一个,立即影响另一个
这允许量子计算以特殊方式协调
量子干涉(Interference)
量子态可以相加或相消
算法利用这一点,让错误答案相消,正确答案加强
量子计算擅长的问题
✓ 因数分解:破解 RSA(秒杀级加速) ✓ 分子模拟:药物设计(百倍加速) ✓ 优化问题:路线规划、投资组合(十倍到百倍加速) ✓ 量子机器学习:某些 ML 问题(理论上指数加速)
✗ 一般 AI:NLP、视觉识别(无显著优势)
2026 年的现状
硬件进展
GPU:H100/B200 统治,但中国芯片在追赶
量子比特:已达 1000+,但误差率仍需降低
时间表:2028-2030 年可能出现第一个可用的通用量子计算机
产业格局
美国:GPU 和量子领先
中国:追赶迅速,特别是在量子理论上
竞争激烈:谁先突破量子纠错,谁就获胜
对你的影响
短期(2026-2028)
GPU 仍然统治 AI
量子还是“观赏用”
行动: 专注于 GPU 优化和云端部署
中期(2028-2032)
量子开始在特定应用上可用
GPU 和量子并存
行动: 如果工作涉及优化、模拟,开始学习量子
长期(2032+)
混合计算普遍
新一代 AI 可能需要量子知识
行动: 保持学习,但不必深入专门化
学习路线
对普通 AI 工程师:
理解 GPU/TPU/NPU 的权衡
知道何时选择哪种芯片
对量子有基础理解(你已经在做)
对有志于深入的人:
学习 Qiskit 或 Cirq(量子编程)
阅读 arXiv 上的量子 ML 论文
在 IBM Quantum Experience 上实验
关键问题的答案
Q: 量子计算会取代 AI 吗? A: 不会。它们会互补。某些子问题用量子加速,大多数 AI 任务仍用经典计算。
Q: 我现在需要学量子计算吗? A: 不必急。理解概念就足够了。除非你的工作专门涉及优化或分子模拟。
Q: 中国能赶上美国在 AI 芯片上的领先吗? A: 在量子上可能;在 GPU 上更难(涉及工艺制程和生态)。2026-2030 年会看到更多突破。
Q: 哪个投资最有前景:GPU、TPU、还是量子? A: 对应用开发者:GPU(现在盈利)。对研究者:量子(未来空间大)。对创业:看具体应用场景。
本章的启示
硬件驱动软件
没有合适的芯片,再好的算法也跑不动
AI 工程师需要理解硬件约束
未来会有多种计算范式
不是 GPU 赢家通吃
而是百花齐放(经典计算、量子计算、混合)
中国有追赶机会
量子计算领域进度快
但 GPU 领域差距很大
关键看能否突破工艺制程
现在学习量子的人会很值钱
5-10 年后,会有急需的岗位
现在竞争者还不多
思考题(拓展)
成本分析: 用 H100 训练一个模型需要 $100 万,还是用 Google Cloud TPU 更便宜?(提示:取决于训练时长)
应用设想: 如果有一个可用的量子计算机,你会用它来做什么?
竞争格局: 5 年后,你认为 GPU、CPU、NPU 的市场份额会如何变化?
伦理问题: 如果量子计算能破解所有现有加密,这对隐私和安全有什么影响?
最后更新于
