我们总以为机器是绝对理性的,但实际上,AI 就像一面镜子,照出了人类社会的偏见。
是的,而且很常见。
原因:AI 是通过学习互联网上的数据长大的。如果数据本身包含偏见,AI 就会学会这种偏见。
案例:
招聘筛选:亚马逊曾开发一个 AI 简历筛选系统,结果发现它歧视女性。因为历史上科技行业的男性简历更多,AI 误以为“男性”是优秀的标准。
人脸识别:早期的某些人脸识别算法,对白人男性的识别率很高,但对深肤色女性的识别率很低。
系统困境:国内一些外卖平台的派单算法,为了追求全局效率最高,会不断压缩甚至无视现实中骑手面临的交通环境,导致骑手“困在系统里”。
如果你让 AI “画一个医生”,它大概率会画一个男性;让它“画一个护士”,大概率是女性。
这就是 刻板印象。虽然在统计学上可能是事实,但如果 AI 在做决策(比如贷款审批、医疗诊断)时带入这种偏见,就会造成社会不公。
即使我们想教 AI “要做个好人”,也很难定义什么是“好”。
电车难题:该救一个人还是救五个人?
文化差异:在美国被认为是自由的言论,在其他国家可能是冒犯。
让 AI 的价值观与人类价值观保持一致,这被称为 “对齐问题”(Alignment Problem),是目前 AI 研究最核心的领域之一。我们在之前学过的 RLHF(详见 4.4.3 节)正是解决对齐问题的核心技术手段之一。
如果让你设计一个“招聘 AI”的公平性规则,你会加入哪 2 条硬性约束,来降低性别或地域偏见?
最后更新于19小时前