11.2 幻觉问题与事实性保障

幻觉是指模型生成看似合理但实际错误或虚构的信息。这是大语言模型最具挑战性的问题之一,严重影响 AI 应用的可信度。本节深入探讨幻觉的成因、类型、检测方法和缓解策略。

11.2.1 理解幻觉的本质

为什么大语言模型会产生幻觉

幻觉的根源在于大语言模型的工作机制:

  1. 概率生成本质:模型基于概率分布生成文本,并不真正“理解”事实

  2. 训练数据局限:训练数据可能包含错误、过时或矛盾的信息

  3. 知识截止时间:模型知识停留在训练时,无法获取最新信息

  4. 过度自信倾向:模型倾向于生成流畅、自信的回答,即使信息不确定

spinner

图 11-5:幻觉的主要成因

11.2.2 幻觉的类型

1. 事实性幻觉

生成与客观事实不符的信息:

❌ 幻觉示例:
"爱因斯坦于 1921 年获得诺贝尔物理学奖,获奖原因是相对论。"

✓ 事实:
爱因斯坦确实于 1921 年获得诺贝尔物理学奖,但获奖原因是
光电效应的解释,而非相对论。

常见表现

  • 错误的日期、数字、人名

  • 对历史事件的错误描述

  • 科学概念的误解

2. 虚构性幻觉

凭空捏造不存在的内容:

常见表现

  • 虚构的学术引用

  • 不存在的法律条款

  • 编造的产品特性

3. 逻辑幻觉

推理过程存在逻辑错误:

常见表现

  • 前后矛盾的陈述

  • 错误的因果推断

  • 数学计算错误

4. 语境幻觉

忽略或曲解提供的上下文:

11.2.3 幻觉的严重程度评估

严重程度
描述
示例场景

无关紧要的细节错误

文章润色中的轻微措辞问题

可能误导但可验证

产品描述中的参数小错误

可能造成实际损害

医疗建议、法律条款错误

严重

涉及安全或合规风险

关键决策依据的虚假信息

11.2.4 检测幻觉的方法

方法一:自我一致性检验

让模型多次回答同一问题,检查答案的一致性:

方法二:LLM-as-Fact-Checker

使用另一个模型实例进行事实核查:

方法三:外部知识验证

结合 RAG 或搜索工具验证关键信息:

11.2.5 减少幻觉的策略

策略一:提示词层面的约束

明确要求事实性

强制承认不确定性

策略二:系统架构层面

RAG(检索增强生成)

优势:

  • 提供最新、可验证的信息

  • 回答可追溯到具体来源

  • 减少模型“编造”的空间

多模型验证

spinner

图 11-6:多模型交叉验证架构

策略三:输出后处理

置信度标注

事实核查流程

11.2.6 不同场景的幻觉风险管理

应用场景
风险等级
推荐策略

创意写作

允许一定自由度

信息摘要

RAG + 来源标注

客户服务

中高

知识库约束 + 人工兜底

医疗/法律建议

多重验证 + 人工复核 + 免责声明

金融决策

严格事实验证 + 审计追踪

11.2.7 实战案例:构建抗幻觉的问答系统

思考

  1. 设计一个 验证提示词(Verification Prompt),专门用于检查模型上一次输出是否存在事实性错误。

  2. 在您的业务中,如果模型产生了幻觉,哪个环节(Input/Process/Output)是实施拦截的最后一道防线?

最后更新于