ChatGPT爆火,人工智能背后的性别偏见与去偏策略
近 日,聊天机器人程序ChatGPT在互联网上爆火。 它是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,能够通过学习和理解人类的 语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。
然而,你有没有想过,AI也会歧视?
近年来,关于 AI 伦理和AI歧视的话题屡 见不鲜,其中不乏针对女性的歧视。 AI对女性的偏见主要有贬低女性、女性代表性不足、刻板印象、识别能力弱四类。
对于人工智能背后的性别偏见,本文作者倡导从女性学与算法学两个方面分别进行去偏,认为建立一个完整的偏见审查机制是一个可能的着力方向;同时提出,在追求性别平等的同时,科学技术、大数据背后所引发的其他社会不公平、不正义现象也应为人类所警惕。
算法是绝对科学的么?我想绝大多数人的答案是否定的。然而,在算法已潜入生活方方面面的当下,我们却总是不自觉地倾向于信赖算法。面对我们对算法科学性习惯性盲从,数据科学家凯西·奥尼尔(Cathy O"Neil)认为,算法神祇或许是一位男性神——人工智能及其背后所谓科学的算法隐含着大量的性别偏见——而科学膜拜却遮蔽了我们发现性别偏见的眼睛。
算法中的性别偏见
在近年的新闻中,关于AI伦理和AI歧视的话题屡见不鲜,其中包括针对女性的歧视:谷歌图片搜索中"CEO"的结果几乎全部是男性,翻译软件总是将"医生"翻译为男性而将"护士"翻译为女性。
正如人类的偏见和歧视不可避免一样,AI的性别偏见是真实存在的。AI对女性的偏见可以总结于如下四类:贬低女性、女性代表性不足、刻板印象、识别能力弱。人工智能六大领域中"自然语言处理"的核心算法之一——词嵌入,便表现出了其中若干项:在"女人:男人"="A :B"的映射测试中,不仅产生了"垒球:棒球"这样的刻板印象划分,更出现了贬低性的"保姆:老板"组合。
性别偏见背后是强大的歧视理论和算法过程,算法以代码形式重新包装后进一步放大的社会偏见,无形地让女性利益受损,加剧了社会既有的性别歧视。
性别偏见产生的机制: 社会学角度和算法结构
对于隐藏在科学面具下的不公,凯西·奥尼尔为这种有害的模型取了一个有些讽刺的名字:数学毁灭性武器WMDs,其缩写与大规模毁灭性武器相同。在某种意义上,这个修辞上的小心机也展示了大规模使用算法可能造成的杀伤力。那么,一个有缺陷的算法何以产生?
我们可以简单地把人工智能的代表算法之一——神经网络算法,理解为一个有许多层级的回归函数。通过大量的训练数据,算法将不断调整其中的系数,以使得对训练集的整体误差最小。不难发现,人工智能的本质是一个对大数据特征进行提取后形成的"黑箱"。正是通过这些特征值,这个"黑箱"才得以对新的个例做出预测。
大规模的数据是AI实现的基础,而算法被用于处理大量个案,那么哪些个体的需求能够成为一个算法的主要目的?答案显而易见,在统计性歧视的作用下,弱者的需求被消解。除性别以外,女性的种族、阶层、年龄、性取向等都成为女性被歧视的原因。单身女性现状或许能成为大数据参与交叉性压迫的例证:媒体通过大量报道"大龄未婚女性""单身母亲"等话题,并利用"平均工资低""年龄大"等刻板印象对单身女性进行污名化。这种刻板印象不仅反映在单身女性被歧视,也成为其他算法系统学习的数据,构成一个不恰当的反馈回路,加剧了性别不平等。
如何判断一个算法是否有偏见
可以见到,不公平的算法实际上正在加剧不平等,而算法本身的非实体性则很好地为他们开脱了罪名。假定我们接受了这种"让机器拥有话语权"的方式,则必须引入一个更高维的框架对算法进行约束与评价。作为一个无法了解详细结构的"黑箱",AI算法的各个层级难以被规范化。在一个只有输入和输出的模型中,算法的输入数据只能通过筛选来规范,那么我们应该如何评价算法的结果?
一个广为接受的评价体系——机会平等,是罗尔斯所提倡的平等理念在机器学习领域的体现,即在不同群体中,有资格并被判断为有资格的个体所占比例相同。对于算法公平性不同定义的应用广泛体现在了各个去偏算法中,而它们的结果却令人不甚满意:大部分去偏算法只是掩饰了一部分偏见。
那么,针对算法中依然存在的性别偏见,与其追求平等的概率,是否可以采取一个更为激进的角度,要求一种暂时的"不平等",以对女性这一弱势群体做出补偿?我们认为,想要实现机会公平,一种"补偿正义"是必要的:必须保证每个人发展能力的机会平等。我们期望算法结果中针对以女性为代表的弱势群体的"优待"——这不仅能够为弱势群体提供更多的展示的空间,更可以为未来算法学习提供数据。
偏见的去除探索
AI的背后是一套人造的算法模型,这是无法跳脱出的桎梏。百年前的遴选模型必然不适用于今日,需要AI背后的工程师们为它注入灵魂。而对于性别偏见,我们倡导从女性学与算法学两个方面进行去偏。
性别偏见在家庭、生育、职场等领域频繁出现。算法模型记录了历史状态,因而我们可以更多地关注训练数据、算法模型的选择。同时,我们可以吸纳更多的女性进入AI研究队伍。LinkedIN的分析发现,全球只有22%的AI专业人士是女性。长期以来,以男性为主的创作者难免将偏见带入算法设计,使AI以男性的视角来看待这个世界。
此外,人工智能的"黑箱"模型并非完全不能干预——我们期望从算法的角度介入大数据中的性别偏见。如今许多去偏算法,如几年前流行的"硬去偏"和谷歌最近在翻译中施行的"覆写式去偏",都是通过修改某个与性别偏见有关的数值,进而干涉算法结果的例子。此外,建立一个完整的偏见审查机制以平衡训练数据中的性别比例和"特征-性别"联系,或许是未来去偏的一大方向。
人工智能在展现其有利于人类的生活一面时,其性别偏见却令人心有戚戚。在追求性别平等的同时,科学技术、大数据背后所引发的社会不公平、不正义现象也应该为人类所警惕。人类性别平等的理想不应该迷失在技术的海洋里。
长按下方二维码订阅
2023年
《中国妇女报》《中国妇运》
来源/中国妇女报(ID:fnb198410)
作者/ 彭鲲志 黄隽恺
封面/摄图网
责编/田园黄蝶 审签/一帆 监制/志飞
为什么月亮会有圆有缺?如果你认为是地球遮挡了阳光,那你就错了我们都知道,月球本身并不是一个光源,但由于月球能够反射阳光,并且离地球还非常近(相对于太阳系中的其他星球),因此在地球上的我们看来,月亮就成了一个非常明亮的天体,正因为如此,我们通
扩大交易!就因为他被压吗?!MarcStein说,老鹰最近已经扩大了交易谈判,很着急的希望把科林斯送到另外一支球队。据闻老鹰的交易欲望达到了空前强烈的程度难道就因为我们科林斯昨天被压了吗?你注意看,此刻躺着的
9换1!爵士报价杜兰特,筹码曝光堪称豪赌北京时间12月12日,NBA常规赛正在如火如荼的进行之中,爵士今天在主场迎战奇才,团队飙进16个三分球,迈克比斯利乔丹克拉克森和马尔卡宁3人得分都突破20分,爵士终场以120112
双杀三镇!蓉城携海港成为争冠判官,中超大戏最后2轮揭晓做客面对武汉三镇,成都蓉城10取胜,回到主场,在凤凰山专业足球场的首秀,成都蓉城又在补时阶段完成绝杀,最终10再次取胜,实现对三镇的双杀。成都蓉城做到了争冠判官的角色,但武汉三镇落
为什么要把王翔的总裁位置,换给卢伟冰呢?因为需要,因为他配小米做出了重大的人事调整,大家也有所耳闻了吧?就是王翔退休,卢伟冰成为小米集团总裁。昨天我就发过文章聊过这个话题,我想补充多一些。王翔的经历大家知道多少?这么说吧,小米能首发骁龙8
首创可呼吸新风技术TCL新风空调小蓝翼再破行业技术壁垒中国网科技12月23日讯(记者单征宇)TCL空调于12月22日发布了搭载首创可呼吸新风技术的新风空调小蓝翼,实现双向新风,推动新风空调进入双向换新风时代。新风空调能够大幅缓解室内空
leetcode17电话号码的字母组合给定一个仅包含数字29的字符串,返回所有它能表示的字母组合。答案可以按任意顺序返回。给出数字到字母的映射如下(与电话按键相同)。注意1不对应任何字母。示例1输入digits23输出
不止TikTok,字节跳动要在美国多点开花日前,品玩英文站en。pingwest。com报道,中国互联网巨头字节跳动可能将在美国发力教育业务。一条招聘启事显示,该公司正在美国招聘一名策略分析师(strategyanalys
Intel虚拟化技术浅析本文仅讲解基于处理器的虚拟化,至于其它的PCI总线设备虚拟化以及基于网络的虚拟化不在我们的学习范围内。我们仅仅学习一下怎样虚拟一个运行环境,然后监控软件的运行。假设我们64位的wi
15万元左右的纯电动车,你最看重哪些点?一辆15万元左右的纯电动车,光电池成本就要七八万剩下七八万还要覆盖驱动电机白车身底盘悬架电子电器等成本。造一辆15万元的纯电动车,如果能把续航安全质量做扎实还能不亏本就不错了,至于
特斯拉也要裁员了?文观察者网李泽西据科技媒体Electrek12月21日报道,有知情人士称,特斯拉将暂停招聘,并将在2023年启动新一轮裁员。Electrek报道截图这并非特斯拉第一次裁员。Elec