附录 C:术语表

本表收录了本书中出现的核心术语,按首字母排序。

💡 术语翻译规范:本书采用"中文翻译 (英文原文, 缩写)"的格式。首次出现时使用完整格式,后续可使用中文或缩写。例如:"思维链 (Chain of Thought, CoT)"。

12.3.1 A

  • Agent (智能体): 一个拥有规划能力、记忆能力和工具使用能力的 AI 系统,能够自主完成复杂任务。

  • Anthropic: Claude 背后的 AI 研究公司,由前 OpenAI 员工创立,强调 AI 安全性。

  • Artifacts (工件): Claude 在对话中生成的可独立预览和编辑的内容块,如代码、图表、React 组件等。

  • Attention Mechanism (注意力机制): Transformer 模型的核心,决定了模型在生成当前词时应该关注上下文中的哪些部分。

12.3.2 C

  • Chain of Thought (CoT, 思维链): 一种 Prompt 技巧,要求模型在给出最终答案前,先输出推理步骤(如 "Let's think step by step")。

  • Claude Code: Anthropic 提供的命令行工具 (CLI),具有 Agent 能力,能直接操作文件系统和终端。

  • Computer Use: Claude 3.5 引入的能力,允许模型通过视觉识别屏幕并通过模拟键鼠操作计算机。

  • Constitutional AI (CAI, 宪法式 AI): Anthropic 的训练方法,利用 AI 反馈(RLAIF)而非纯人类反馈来训练模型遵循通过一套明确的“宪法”原则。

  • Context Window (上下文窗口): 模型一次能“看见”的最大 Token 数量(如 Claude 3 的 200k)。包含 Input + Output。

12.3.3 E

  • Embedding (嵌入): 将文本转化为高维向量的过程。语义相似的文本在向量空间距离更近。

  • Extended Thinking: Claude 在处理复杂任务时的一种模式,模型在后台进行长时间的隐式推理(System 2 Thinking)以提高准确率。

12.3.4 F

  • Few-Shot Learning (少样本学习): 在 Prompt 中提供少量的示例(Input-Output Pairs)来教会模型执行特定任务。

  • Fine-tuning (微调): 在预训练模型的基础上,使用特定数据集进行进一步训练,以适应特定领域。

12.3.5 H

  • Hallucination (幻觉): LLM 生成看似通顺但实际上错误或编造的信息的现象。

  • Haiku: Claude 3 系列中最轻量、最快、最便宜的模型。

  • Human-in-the-Loop (HITL): 在自动化流程中引入人工审核或干预环节,通常用于高风险操作。

12.3.6 L

  • LLM (Large Language Model): 大语言模型。

  • Latency (延迟): 从发送请求到收到第一个 Token 的时间 (TTFT)。

12.3.7 M

  • MCP (Model Context Protocol): 一个开放标准协议,用于连接 AI 模型与数据源/工具。类似于 AI 界的 USB-C。

  • Multi-Agent System (MAS): 多智能体系统,由多个分工明确的 Agent 协作完成任务。

12.3.8 O

  • Opus: Claude 3 系列中最强大、最聪明的模型,擅长复杂推理。

12.3.9 P

  • Prompt Caching: 一种通过缓存 Prompt 前缀的 KV 状态来降低延迟和成本的技术。

  • Prompt Injection (提示词注入): 一种攻击手段,通过特殊的输入诱导模型忽略安全限制或执行恶意指令。

  • Prefill (预填): 在 API 请求中,预先填入 Assistant 回复的开头部分(如 { "role": "assistant", "content": "{" }),强制模型按特定格式续写。

12.3.10 R

  • RAG (Retrieval-Augmented Generation): 检索增强生成。先从知识库检索相关信息,再喂给 LLM 生成回答,用于解决幻觉和知识过时问题。

  • ReAct: "Reason + Act" 的缩写,一种 Agent 设计模式,循环执行“思考-行动-观察”。

  • RLHF (Reinforcement Learning from Human Feedback): 基于人类反馈的强化学习。

  • RLAIF (Reinforcement Learning from AI Feedback): 基于 AI 反馈的强化学习,Constitutional AI 的核心技术。

12.3.11 S

  • Skills (技能): Claude 的模块化专业知识封装,包含 Prompt、工具和文档的集合,用于特定领域任务。

  • Sonnet: Claude 模型系列中平衡性最好的模型,性价比高,是大多数企业应用的首选。

  • Structured Output: 要求模型输出 JSON、XML 等结构化数据,而非自然语言。

  • System Prompt: 发送给模型的第一条指令,定义了模型的角色、风格和边界。

12.3.12 T

  • Temperature: 控制采样随机性的参数。0 表示确定性输出,1 表示多样性输出。

  • Token: LLM 处理文本的最小计费单位。

  • Tool Use (Function Calling): 模型输出特定格式的请求来调用外部函数的能力。

12.3.13 V

  • Vector Database (向量数据库): 专门用于存储 Embedding 向量的数据库,支持语义搜索。

12.3.14 Z

  • Zero-Shot: 不提供任何示例,直接让模型执行任务。

最后更新于