3.4 中央厨房与自热火锅

—— 云端 AI 与端侧 AI

大事上云,小事在手。算力在哪,智能就在哪——但现在,智能正在从“云端”流向你的“指尖”。

3.4.1 为什么要上云?(中央厨房)

以云端为主的 ChatGPT 服务,为什么通常需要连网才能用? 因为它太大了。 大语言模型(LLM)的参数量有万亿级别,运行它一次需要的显存高达几百 GB。你最好的手机也存不下它的一只“脚趾头”。

所以,我们只能把模型放在 云端(巨大的中央厨房)。

  • 你发请求(点菜)。

  • 云端几百台服务器轰鸣计算(大厨做菜)。

  • 把结果发回给你(上菜)。

优点:脑子足够大,什么复杂问题都能解决。 缺点:没网就歇菜,而且数据都要传给别人(隐私泄露)。

3.4.2 为什么要下端?(自热火锅)

但是,并非所有事情都要找米其林大厨。 比如“人脸解锁”,比如“拍照美颜”。 这种高频、简单、隐私极其敏感的操作,如果每次都要传到云端,不仅慢,而且你也不放心。

所以,现在手机芯片里的 NPU(神经网络处理单元)就是为了解决这个问题。 这就是 “端侧 AI”(Edge AI)。 它就像是 “自热火锅”,虽然口感不如中央厨房现做的,但胜在 随时随地、不依赖网络、隐私风险相对更可控

3.4.3 混合 AI:未来的常态

未来的 AI 体验,很可能是 混合 的。

  • 日常的、私密的、简单的(读短信、美图、实时翻译):端侧 AI 搞定

  • 复杂的、创造性的、需要海量知识的(写论文、画海报、查资料):云端 AI 搞定

这就好比:你家里有厨房(端侧),能做家常菜;想吃大餐了,再去外面的饭店(云端)。

3.4.4 思考题

现在 AI PC(人工智能电脑)和 AI Phone(人工智能手机)的概念炒得很火。 你觉得这究竟是 “为了卖硬件而生造出来的营销词”,还是 “确实解决了云端 AI 无法解决的痛点”? 如果你的手机能跑大语言模型(LLM),但电量只能撑 2 小时,你愿意买吗?

最后更新于