15.1 AI 的偏见与伦理
我们总以为机器是绝对理性的,但实际上,AI 就像一面镜子,照出了人类社会的偏见。
15.1.1 算法也会“歧视”吗?
是的,而且很常见。
原因:AI 是通过学习互联网上的数据长大的。如果数据本身包含偏见,AI 就会学会这种偏见。
案例:
招聘筛选:据路透社(Reuters)2018 年的调查报道,亚马逊曾开发过一个 AI 简历筛选系统,结果发现它会歧视女性(系统会自动因“女子学院”等字眼而降分)。因为历史上科技行业的男性简历居多,AI 误以为“男性”才是优秀的统计学特征。
人脸识别:在麻省理工学院著名的“性别阴影(Gender Shades)”研究论文(2018年)中揭露,早期的部分主流商业人脸识别算法在这方面存在严重偏差:对白人男性的识别率极高,但对深肤色女性的错误率最高甚至可达 34.7%。
系统困境:国内一些外卖平台的派单算法,为了追求全局效率最高,会不断压缩甚至无视现实中骑手面临的交通环境,导致骑手“困在系统里”。
15.1.2 刻板印象的放大
如果你让 AI “画一个医生”,它大概率会画一个男性;让它“画一个护士”,大概率是女性。
这就是 刻板印象。虽然在统计学上可能是事实,但如果 AI 在做决策(比如贷款审批、医疗诊断)时带入这种偏见,就会造成社会不公。
15.1.3 “对齐”难题
即使我们想教 AI “要做个好人”,也很难定义什么是“好”。
电车难题:该救一个人还是救五个人?
文化差异:在美国被认为是自由的言论,在其他国家可能是冒犯。
让 AI 的价值观与人类价值观保持一致,这被称为 “对齐问题”(Alignment Problem),是目前 AI 研究最核心的领域之一。我们在之前学过的 RLHF 正是解决对齐问题的核心技术手段之一。
15.1.4 思考题
如果让你设计一个“招聘 AI”的公平性规则,你会加入哪 2 条硬性约束,来降低性别或地域偏见?
最后更新于
