15.1 AI 的偏见与伦理

我们总以为机器是绝对理性的,但实际上,AI 就像一面镜子,照出了人类社会的偏见。

15.1.1 算法也会“歧视”吗?

是的,而且很常见。

原因:AI 是通过学习互联网上的数据长大的。如果数据本身包含偏见,AI 就会学会这种偏见。

案例

  1. 招聘筛选:据路透社(Reuters)2018 年的调查报道,亚马逊曾开发过一个 AI 简历筛选系统,结果发现它会歧视女性(系统会自动因“女子学院”等字眼而降分)。因为历史上科技行业的男性简历居多,AI 误以为“男性”才是优秀的统计学特征。

  2. 人脸识别:在麻省理工学院著名的“性别阴影(Gender Shades)”研究论文(2018年)中揭露,早期的部分主流商业人脸识别算法在这方面存在严重偏差:对白人男性的识别率极高,但对深肤色女性的错误率最高甚至可达 34.7%。

  3. 系统困境:国内一些外卖平台的派单算法,为了追求全局效率最高,会不断压缩甚至无视现实中骑手面临的交通环境,导致骑手“困在系统里”。

15.1.2 刻板印象的放大

如果你让 AI “画一个医生”,它大概率会画一个男性;让它“画一个护士”,大概率是女性。

这就是 刻板印象。虽然在统计学上可能是事实,但如果 AI 在做决策(比如贷款审批、医疗诊断)时带入这种偏见,就会造成社会不公。

15.1.3 “对齐”难题

即使我们想教 AI “要做个好人”,也很难定义什么是“好”。

  • 电车难题:该救一个人还是救五个人?

  • 文化差异:在美国被认为是自由的言论,在其他国家可能是冒犯。

让 AI 的价值观与人类价值观保持一致,这被称为 “对齐问题”(Alignment Problem),是目前 AI 研究最核心的领域之一。我们在之前学过的 RLHF 正是解决对齐问题的核心技术手段之一。

15.1.4 思考题

如果让你设计一个“招聘 AI”的公平性规则,你会加入哪 2 条硬性约束,来降低性别或地域偏见?

最后更新于