为了节省成本或塞入更多对话历史,开发者采用极端的压缩策略,例如将每轮对话压缩为一句话,或者过度依赖自动摘要。
错误做法: “User: 我想买一台电脑,预算 5000 左右,主要打游戏。” “System Summary: 用户想买电脑。”
细节丢失:模型忘记了“5000 预算”和“打游戏”这两个关键约束,推荐了 2 万元的工作站。
推理断裂:多轮对话中的逻辑链条被打断,模型无法通过前文进行连续推理。
基于任务的压缩:如果任务是推荐,必须保留“预算”、“用途”等实体与属性,而不是通用的语义摘要。
原文引用:对于关键指令和约束条件,永远保留原文,不要压缩。
最后更新于3天前