# 附录 C：术语表

本表收录了本书中出现的核心术语，按首字母排序。

> 💡 **术语翻译规范**：本书采用“中文翻译 (英文原文, 缩写)”的格式。首次出现时使用完整格式，后续可使用中文或缩写。例如：“思维链 (Chain of Thought, CoT)”。

## 12.3.1 A

* **Agent (智能体)**: 一个拥有规划能力、记忆能力和工具使用能力的 AI 系统，能够自主完成复杂任务。
* **Anthropic**: Claude 背后的 AI 研究公司，由前 OpenAI 员工创立，强调 AI 安全性。
* **Artifacts (工件)**: Claude 在对话中生成的可独立预览和编辑的内容块，如代码、图表、React 组件等。
* **Attention Mechanism (注意力机制)**: Transformer 模型的核心，决定了模型在生成当前词时应该关注上下文中的哪些部分。

## 12.3.2 C

* **Chain of Thought (CoT, 思维链)**: 一种 Prompt 技巧，要求模型在给出最终答案前，先输出推理步骤（如 “Let's think step by step”）。
* **Claude Code**: Anthropic 提供的命令行工具 (CLI)，具有 Agent 能力，能直接操作文件系统和终端。
* **Computer Use**: Claude 3.5 引入的能力，允许模型通过视觉识别屏幕并通过模拟键鼠操作计算机。
* **Constitutional AI (CAI, 宪法式 AI)**: Anthropic 的训练方法，利用 AI 反馈（RLAIF）而非纯人类反馈来训练模型遵循通过一套明确的“宪法”原则。
* **Context Window (上下文窗口)**: 模型一次能“看见”的最大 Token 数量（如 Claude 3 的 200k）。包含 Input + Output。

## 12.3.3 E

* **Embedding (嵌入)**: 将文本转化为高维向量的过程。语义相似的文本在向量空间距离更近。
* **Extended Thinking**: Claude 在处理复杂任务时的一种模式，模型在后台进行长时间的隐式推理（System 2 Thinking）以提高准确率。

## 12.3.4 F

* **Few-Shot Learning (少样本学习)**: 在 Prompt 中提供少量的示例（Input-Output Pairs）来教会模型执行特定任务。
* **Fine-tuning (微调)**: 在预训练模型的基础上，使用特定数据集进行进一步训练，以适应特定领域。

## 12.3.5 H

* **Hallucination (幻觉)**: LLM 生成看似通顺但实际上错误或编造的信息的现象。
* **Haiku**: Claude 3 系列中最轻量、最快、最便宜的模型。
* **Human-in-the-Loop (HITL)**: 在自动化流程中引入人工审核或干预环节，通常用于高风险操作。

## 12.3.6 L

* **LLM (Large Language Model)**: 大语言模型。
* **Latency (延迟)**: 从发送请求到收到第一个 Token 的时间 (TTFT)。

## 12.3.7 M

* **MCP (Model Context Protocol)**: 一个开放标准协议，用于连接 AI 模型与数据源/工具。类似于 AI 界的 USB-C。
* **Multi-Agent System (MAS)**: 多智能体系统，由多个分工明确的 Agent 协作完成任务。

## 12.3.8 O

* **Opus**: Claude 3 系列中最强大、最聪明的模型，擅长复杂推理。

## 12.3.9 P

* **Prompt Caching**: 一种通过缓存 Prompt 前缀的 KV 状态来降低延迟和成本的技术。
* **Prompt Injection (提示词注入)**: 一种攻击手段，通过特殊的输入诱导模型忽略安全限制或执行恶意指令。
* **Prefill (预填)**: 在 API 请求中，预先填入 Assistant 回复的开头部分（如 `{ "role": "assistant", "content": "{" }`），强制模型按特定格式续写。

## 12.3.10 R

* **RAG (Retrieval-Augmented Generation)**: 检索增强生成。先从知识库检索相关信息，再喂给 LLM 生成回答，用于解决幻觉和知识过时问题。
* **ReAct**: “Reason + Act” 的缩写，一种 Agent 设计模式，循环执行“思考-行动-观察”。
* **RLHF (Reinforcement Learning from Human Feedback)**: 基于人类反馈的强化学习。
* **RLAIF (Reinforcement Learning from AI Feedback)**: 基于 AI 反馈的强化学习，Constitutional AI 的核心技术。

## 12.3.11 S

* **Skills (技能)**: Claude 的模块化专业知识封装，包含 Prompt、工具和文档的集合，用于特定领域任务。
* **Sonnet**: Claude 模型系列中平衡性最好的模型，性价比高，是大多数企业应用的首选。
* **Structured Output**: 要求模型输出 JSON、XML 等结构化数据，而非自然语言。
* **System Prompt**: 发送给模型的第一条指令，定义了模型的角色、风格和边界。

## 12.3.12 T

* **Temperature**: 控制采样随机性的参数。0 表示确定性输出，1 表示多样性输出。
* **Token**: LLM 处理文本的最小计费单位。
* **Tool Use (Function Calling)**: 模型输出特定格式的请求来调用外部函数的能力。

## 12.3.13 V

* **Vector Database (向量数据库)**: 专门用于存储 Embedding 向量的数据库，支持语义搜索。

## 12.3.14 Z

* **Zero-Shot**: 不提供任何示例，直接让模型执行任务。
