11.6 AI 安全合规的可操作性指南

本节将合规要求转化为可直接使用的工具、流程和检查清单,帮助组织从“了解法规”跨越到“有效执行”。

11.6.1 AI 安全合规检查清单(可直接使用的模板)

风险评估阶段

# AI 系统风险评估检查清单

系统信息
□ 系统名称: ____________
□ 系统类型(LLM/Vision/Audio/Multimodal): ____________
□ 部署地域(欧盟/美国/中国/其他): ____________
□ 负责人: ____________
□ 评估日期: ____________

## 第一部分:系统分类与风险等级

### 1.1 功能性风险评估

□ 系统用途描述:
  ___________________________________________________________

□ 系统可否影响以下领域?(勾选适用)
  □ 就业与工资决策(高风险)
  □ 教育考试与入学(高风险)
  □ 执法司法决策(高风险)
  □ 医疗诊断(高风险)
  □ 金融信贷评估(高风险)
  □ 通用内容生成(低/中风险)
  □ 其他: ___________

□ 根据上述影响,初步风险分类:
  □ 高风险系统(EU AI Act Annex III)
  □ 中风险系统
  □ 低风险系统

### 1.2 数据与隐私风险评估

□ 系统是否处理以下类型数据?(勾选适用)
  □ 个人敏感数据(健康、种族、性取向等)
  □ 财务信息
  □ 生物特征数据
  □ 地理位置数据
  □ 儿童数据(<13岁)
  □ 不处理个人数据

□ 数据来源:
  □ 完全由用户输入(风险:内部)
  □ 从第三方数据库检索(风险:外部)
  □ 混合来源

□ 数据处理规模:
  □ < 1000 用户
  □ 1000 - 100,000 用户
  □ > 100,000 用户

### 1.3 安全威胁评估

□ 系统是否容易被以下攻击?
  □ 提示注入攻击
  □ 越狱攻击
  □ 数据投毒
  □ 模型窃取
  □ 隐私泄露
  □ 多模态攻击

□ 被成功攻击的潜在影响:
  □ 财务损失(金额: ___________)
  □ 声誉损害
  □ 法律责任
  □ 用户数据泄露
  □ 服务不可用

## 第二部分:合规需求确定

### 2.1 适用法规(根据部署地域)

**欧盟(EU AI Act)**
□ 是否在欧盟部署或为欧盟用户提供服务?
  □ 是 → 需要完全合规 EU AI Act
  □ 否 → 免除,但如适用GDPR仍需合规

□ 如需合规,以下哪些类型适用?
  □ 禁止类AI(第6条)- 必须禁用
  □ 高风险系统(Annex III)- 需要风险管理体系
  □ 有限风险系统(第52条)- 需要透明度披露
  □ 最小风险系统 - 最少要求

**美国**
□ 是否在美国部署?
  □ 是 → 检查适用的州法规
    □ 加州 SB 1047 (AI透明性)
    □ 科罗拉多 SB 24-205 (影响评估)
    □ 其他州: ___________

□ 是否涉及特定行业监管?
  □ 医疗(FDA)
  □ 金融(SEC/OCC/CFPB)
  □ 教育
  □ 其他: ___________

**中国**
□ 是否面向中国用户或处理中国数据?
  □ 是 → 需要合规:
    □ 《生成式AI服务管理暂行办法》
    □ 《数据安全法》
    □ 《个人信息保护法》
    □ 大模型备案制度

  □ 否 → 如与中资企业合作需注意跨境数据传输

### 2.2 具体合规要求

**EU AI Act 高风险系统要求清单**
□ 风险管理体系
  □ 建立并文档化风险管理流程
  □ 识别已知与可预见的风险
  □ 制定风险缓解措施
  □ 评估缓移措施的有效性

□ 数据与数据治理
  □ 训练数据集的文档化
  □ 数据治理流程的建立
  □ 数据质量评估

□ 技术文档
  □ 系统架构文档
  □ 安全评估报告
  □ 测试报告

□ 透明度与用户告知
  □ 向用户披露AI系统的使用
  □ 提供适当的信息说明
  □ 确保用户知晓其与AI交互

□ 人工监督
  □ 建立有效的人工监督机制
  □ 培训监督人员
  □ 文档化监督流程

□ 准确性、鲁棒性与网络安全
  □ 实施安全措施防止对抗攻击
  □ 测试鲁棒性和准确性
  □ 定期检查已知漏洞

## 第三部分:实施与验证

### 3.1 技术控制措施

□ 输入安全
  □ 实施输入验证
  □ 提示注入防护
  □ 内容过滤

□ 模型安全
  □ 安全微调与对齐
  □ 对抗训练
  □ 定期安全评估

□ 输出安全
  □ 内容审核
  □ 敏感信息过滤
  □ 事实性验证

□ 系统安全
  □ 访问控制
  □ 日志与审计
  □ 入侵检测

### 3.2 组织与管理控制

□ 治理
  □ 任命AI安全负责人
  □ 建立AI治理委员会
  □ 制定AI安全政策

□ 培训
  □ 对开发人员的安全培训
  □ 对运营人员的培训
  □ 对用户的安全意识提升

□ 文档
  □ 系统卡(System Card)
  □ 模型卡(Model Card)
  □ 威胁建模文档
  □ 安全事件响应计划

### 3.3 持续监控与改进

□ 监控
  □ 建立安全监控体系
  □ 实施异常检测
  □ 定期审查日志

□ 审计
  □ 定期安全审计
  □ 第三方审计
  □ 合规检查

□ 更新
  □ 及时应对新威胁
  □ 更新防御措施
  □ 版本控制与变更管理

## 第四部分:评估结论

### 综合风险评分

____ / 100

### 推荐行动优先级

优先级1(立即执行):
- ___________________________________________________________

优先级2(30天内):
- ___________________________________________________________

优先级3(90天内):
- ___________________________________________________________

### 签署与确认

评估者: ________________  日期: ____________
负责人: ________________  日期: ____________
法务审查: ________________  日期: ____________

数据治理阶段

11.6.2 不同地区法规速查表

11.6.3 事件响应流程模板

11.6.4 合规审计周期建议

组织应该根据自身的系统复杂性、风险等级和法规要求,定制适合的审计周期和检查项目。定期的、结构化的审计是确保持续合规的关键。

本部分的所有模板和清单都可以直接应用到实际工作中,并根据组织的具体情况进行定制。

最后更新于