本章小结

本章全面介绍了 AI 技术的生态系统,帮助读者了解从硬件到应用的完整技术栈、主流平台和服务、开源工具,以及部署架构的选择。

核心要点回顾

AI 技术栈的层次

  • 芯片层(GPU):门槛最高,NVIDIA 一家独大

  • 基础设施层(云平台):提供算力和服务

  • 框架层(PyTorch 等):开发者用来“画图纸”的工具

  • 模型层(预训练模型):相当于“预制板”,拿来即用

  • 应用层:面向用户的产品和服务

主流 AI 平台与服务

  • 微软 Azure:企业集成与治理导向

  • Google Cloud:模型与数据产品一体化

  • AWS:多模型与基础设施深耕

  • 选择平台应按约束条件(合规、技术、组织)而非单纯“谁最强”

开源框架与工具

  • PyTorch 在研究和开源社区占比最高

  • TensorFlow 生态成熟,部署工具链完整

  • JAX 在前沿研究和高性能训练场景活跃

  • Hugging Face 是 AI 界的“GitHub”,大幅降低试错成本

  • AI 编程助手(Copilot、Cursor 等)正推动 Agentic Coding

云端 AI 与边缘 AI

  • 云端:算力强、模型大,但依赖网络、有隐私顾虑

  • 边缘:低延迟、保护隐私,但受设备限制

  • 未来趋势是混合架构,日常简单任务在端侧,复杂任务上云

关键术语

术语
解释

GPU

图形处理器,深度学习的主要计算硬件

TPU

Google 的张量处理单元,专用 AI 芯片

PyTorch

Meta 开发的深度学习框架

TensorFlow

Google 开发的深度学习框架

Hugging Face

AI 模型和数据集的共享平台

边缘 AI

在终端设备本地运行的 AI

MaaS

模型即服务,按需调用云上模型的模式

延伸思考

  1. 随着端侧 AI 能力增强,云端 AI 服务商的商业模式会如何变化?

  2. 开源模型与闭源模型的竞争格局会如何演变?

  3. 对于一个新的 AI 项目,应该如何选择技术栈和部署架构?

下章预告

到了这里,我们已经参观完了 AI 的“工具间”和“厨房”。 你可能不仅要问:这些厉害的工具背后,到底藏着什么原理?为什么显卡能算出智能? 接下来,让我们推开 “核心技术” 的大门,去探寻 AI 大脑深处的秘密。下一章:机器学习原理。

最后更新于