本章小结

本章小结

核心知识

AI 芯片的三驾马车

芯片类型
性能
功耗
成本
主要用途

GPU(H100/B200)

最强

700W

$35k/块

训练、云推理

TPU(v5/v6)

最强

450W

云端

训练、推理

NPU(手机/笔记本)

一般

5W

摊销

本地推理

关键认识: 没有绝对最强的芯片,只有最适合的选择。

量子计算的三个关键概念

  1. 量子叠加(Superposition)

    • 量子比特同时是 0 和 1

    • 1 个量子比特 = 同时处理 2 种状态

    • 10 个量子比特 = 同时处理 1024 种状态

  2. 量子纠缠(Entanglement)

    • 两个量子比特可以相关联

    • 观测一个,立即影响另一个

    • 这允许量子计算以特殊方式协调

  3. 量子干涉(Interference)

    • 量子态可以相加或相消

    • 算法利用这一点,让错误答案相消,正确答案加强

量子计算擅长的问题

因数分解:破解 RSA(秒杀级加速) ✓ 分子模拟:药物设计(百倍加速) ✓ 优化问题:路线规划、投资组合(十倍到百倍加速) ✓ 量子机器学习:某些 ML 问题(理论上指数加速)

一般 AI:NLP、视觉识别(无显著优势)

2026 年的现状

硬件进展

  • GPU:H100/B200 统治,但中国芯片在追赶

  • 量子比特:已达 1000+,但误差率仍需降低

  • 时间表:2028-2030 年可能出现第一个可用的通用量子计算机

产业格局

  • 美国:GPU 和量子领先

  • 中国:追赶迅速,特别是在量子理论上

  • 竞争激烈:谁先突破量子纠错,谁就获胜

对你的影响

短期(2026-2028)

  • GPU 仍然统治 AI

  • 量子还是“观赏用”

  • 行动: 专注于 GPU 优化和云端部署

中期(2028-2032)

  • 量子开始在特定应用上可用

  • GPU 和量子并存

  • 行动: 如果工作涉及优化、模拟,开始学习量子

长期(2032+)

  • 混合计算普遍

  • 新一代 AI 可能需要量子知识

  • 行动: 保持学习,但不必深入专门化

学习路线

对普通 AI 工程师:

  1. 理解 GPU/TPU/NPU 的权衡

  2. 知道何时选择哪种芯片

  3. 对量子有基础理解(你已经在做)

对有志于深入的人:

  1. 学习 Qiskit 或 Cirq(量子编程)

  2. 阅读 arXiv 上的量子 ML 论文

  3. 在 IBM Quantum Experience 上实验

关键问题的答案

Q: 量子计算会取代 AI 吗? A: 不会。它们会互补。某些子问题用量子加速,大多数 AI 任务仍用经典计算。

Q: 我现在需要学量子计算吗? A: 不必急。理解概念就足够了。除非你的工作专门涉及优化或分子模拟。

Q: 中国能赶上美国在 AI 芯片上的领先吗? A: 在量子上可能;在 GPU 上更难(涉及工艺制程和生态)。2026-2030 年会看到更多突破。

Q: 哪个投资最有前景:GPU、TPU、还是量子? A: 对应用开发者:GPU(现在盈利)。对研究者:量子(未来空间大)。对创业:看具体应用场景。

本章的启示

  1. 硬件驱动软件

    • 没有合适的芯片,再好的算法也跑不动

    • AI 工程师需要理解硬件约束

  2. 未来会有多种计算范式

    • 不是 GPU 赢家通吃

    • 而是百花齐放(经典计算、量子计算、混合)

  3. 中国有追赶机会

    • 量子计算领域进度快

    • 但 GPU 领域差距很大

    • 关键看能否突破工艺制程

  4. 现在学习量子的人会很值钱

    • 5-10 年后,会有急需的岗位

    • 现在竞争者还不多

思考题(拓展)

  1. 成本分析: 用 H100 训练一个模型需要 $100 万,还是用 Google Cloud TPU 更便宜?(提示:取决于训练时长)

  2. 应用设想: 如果有一个可用的量子计算机,你会用它来做什么?

  3. 竞争格局: 5 年后,你认为 GPU、CPU、NPU 的市场份额会如何变化?

  4. 伦理问题: 如果量子计算能破解所有现有加密,这对隐私和安全有什么影响?


📝 发现错误或有改进建议? 欢迎提交 Issuearrow-up-rightPRarrow-up-right

最后更新于