对抗算法偏见
Robin Pocornie 随笔
人工智能 (AI)旨在让我们的生活更加便捷。然而,它常常使某些群体处于不利地位——例如来自不同种族和民族背景的人群,以及基于性取向认同或年龄的个体。当机器学习所使用的数据反映了现存的社会偏见时,这种情况便会发生。科学家兼演说家 Robin Pocornie 在学生时代便亲历了这一现象。自此,她始终致力于倡导构建更公平的基于人工智能的系统。在此,她将阐述为何仅靠更多样化的数据集仍无法彻底解决这一问题。
概况:
- 遭遇算法歧视? Robin Pocornie 在使用面部识别软件时,亲身经历了人工智能的偏见问题。
- 倡导公平算法:她自此长期致力于推动人工智能决策的公正性与合理性,并呼吁提升算法决策系统的透明度。
- 提出解决方案:Porconie 建议推行本地化数据管理、开展系统性的偏差审计,并将评估重点从纯技术指标转向以公平性为核心的评估体系。

面对因种族偏见导致的不公结果
2020年新冠疫情最严重的时候,我意外成为一名人工智能(AI)公平倡导者。这并不是因为兴趣或学术研究,而是因为一款强制使用的人脸识别算法无法识别我的面孔。大学采用的线上考试系统无法正确检测深肤色的学生,导致我在进入考试时遇到延误和障碍,而白人同学却畅通无阻。这一经历让我深感不公,我向学校报告这一问题,与此同时,全球范围内也已有类似投诉出现。
经过数月辗转,我终于找到学校负责部门,但最终校方拒绝停止使用该软件。从那以后,我立志推动算法公平,改变组织、政府和企业在部署AI系统时的思维方式。2022 年,荷兰人权研究所初步裁定,我提供的证据足以表明算法存在歧视。然而,2023 年10 月,学校提交反证后,研究所认定虽然软件可能存在歧视,但无法确证我的个人经历构成歧视。
“解决算法偏见的答案,不仅仅是增加数据集的多样性。”

Edward Carvalho-Monaghan 将人工智能描绘为一种理想的知识源泉——如同一个融合图像与文本的虚拟亚历山大图书馆。
事实上,训练 AI 模型的数据集往往偏向欧美富裕群体,这一现实情况不仅加剧种族和性别刻板印象,还影响解决不平等问题的努力。例如,文本生成图像的模型在生成职业场景时,高收入岗位多呈现白人男性,而低收入岗位则出现深肤色女性。
此外,AI 在招聘中的性别偏见也有现实案例:亚马逊曾使用的一套 AI 招聘模型,因历史数据反映出的性别不均衡,而偏好男性候选人担任技术岗位。这类偏差凸显了 AI 系统需要透明与公正,才能防止歧视并确保所有候选人享有平等机会。
目前普遍的解决方案是丰富训练数据集,但我认为这远远不够。我们必须重新思考 AI 开发的逻辑,将“公平与正义”置于技术能力之上。
实现更公平算法决策的三大路径
我经常受邀到各类企业和组织,分享我在伦理人工智能方面的专业见解。我提出的解决方案旨在应对决策模型中日益严重的偏见问题,这些方案既可以在开发者的工作台上实现,也可以在董事会议室中落实,因为它们同时考虑了技术层面与组织层面的要素。我认为最重要的是,让公众看到 AI 的影响——因为这些影响往往隐藏在公众视野之外,却可能带来无法预料的后果。
1. 推行本地化数据管理
首先,应赋能社区收集、拥有并管理自己的数据,使 AI 系统更真实地反映多元现实。推动地方化的数据治理,让社区自主制定数据收集与使用的条款,可以防止数据被剥削或被错误诠释。
2. 建立透明流程与定期审计
其次,定期实施偏见审计并建立问责机制,可以弥补当前 AI 系统在伦理方面的缺陷。以我的面部识别事件为例:如果用户无法有效上报或申诉与 AI 交互时遭遇的不利后果,那么采购并部署该系统的机构就难以被追责。当系统作出“系统说不”式的决策且无法或难以被质疑时,问题尤为严重。最后,应把关注点从纯技术指标转向以公平为中心的评估指标,让公平与正义与量化性能指标并重。
3. 制定公平的新评估标准
最后,应把关注点从纯技术指标转向以公平为中心的评估指标,让公平与正义与量化性能指标并重。以公平为中心的指标可以包括:数据中心的工作条件是否公平(许多数据标注和维护工作由边缘化群体承担),以及系统运行对环境的影响等。衡量一个算法的成功,不应仅看屏幕上直观的输出结果,还应评估其公平性、代表性和综合考量的充分性。
要做到这些,我们思考 AI 的方式必须发生根本性转变:从单纯追求技术能力,转向同时承担伦理责任与社会正义。我们如何构建系统,谁从中受益,谁在开发过程中被剥削,这些问题将至关重要。

关于作者
ROBIN POCORNIE
是一位专注于技术与伦理领域的科学家和专业演讲者,长期为各类组织提供关于负责任使用算法的咨询建议。她也是荷兰首位就算法与歧视问题促成法律判例的人,开创该领域的重要先例。



