ChatGPT爆火,人工智能背后的性别偏见与去偏策略
近日,聊天机器人程序ChatGPT在互联网上爆火。它是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。
然而,你有没有想过,AI也会歧视?
近年来,关于AI伦理和AI歧视的话题屡见不鲜,其中不乏针对女性的歧视。AI对女性的偏见主要有贬低女性、女性代表性不足、刻板印象、识别能力弱四类。
对于人工智能背后的性别偏见,本文作者倡导从女性学与算法学两个方面分别进行去偏,认为建立一个完整的偏见审查机制是一个可能的着力方向;同时提出,在追求性别平等的同时,科学技术、大数据背后所引发的其他社会不公平、不正义现象也应为人类所警惕。
算法是绝对科学的么?我想绝大多数人的答案是否定的。然而,在算法已潜入生活方方面面的当下,我们却总是不自觉地倾向于信赖算法。面对我们对算法科学性习惯性盲从,数据科学家凯西奥尼尔(CathyONeil)认为,算法神祇或许是一位男性神人工智能及其背后所谓科学的算法隐含着大量的性别偏见而科学膜拜却遮蔽了我们发现性别偏见的眼睛。
算法中的性别偏见
在近年的新闻中,关于AI伦理和AI歧视的话题屡见不鲜,其中包括针对女性的歧视:谷歌图片搜索中CEO的结果几乎全部是男性,翻译软件总是将医生翻译为男性而将护士翻译为女性。
正如人类的偏见和歧视不可避免一样,AI的性别偏见是真实存在的。AI对女性的偏见可以总结于如下四类:贬低女性、女性代表性不足、刻板印象、识别能力弱。人工智能六大领域中自然语言处理的核心算法之一词嵌入,便表现出了其中若干项:在女人:男人A:B的映射测试中,不仅产生了垒球:棒球这样的刻板印象划分,更出现了贬低性的保姆:老板组合。
性别偏见背后是强大的歧视理论和算法过程,算法以代码形式重新包装后进一步放大的社会偏见,无形地让女性利益受损,加剧了社会既有的性别歧视。
性别偏见产生的机制:社会学角度和算法结构
对于隐藏在科学面具下的不公,凯西奥尼尔为这种有害的模型取了一个有些讽刺的名字:数学毁灭性武器WMDs,其缩写与大规模毁灭性武器相同。在某种意义上,这个修辞上的小心机也展示了大规模使用算法可能造成的杀伤力。那么,一个有缺陷的算法何以产生?
我们可以简单地把人工智能的代表算法之一神经网络算法,理解为一个有许多层级的回归函数。通过大量的训练数据,算法将不断调整其中的系数,以使得对训练集的整体误差最小。不难发现,人工智能的本质是一个对大数据特征进行提取后形成的黑箱。正是通过这些特征值,这个黑箱才得以对新的个例做出预测。
大规模的数据是AI实现的基础,而算法被用于处理大量个案,那么哪些个体的需求能够成为一个算法的主要目的?答案显而易见,在统计性歧视的作用下,弱者的需求被消解。除性别以外,女性的种族、阶层、年龄、性取向等都成为女性被歧视的原因。单身女性现状或许能成为大数据参与交叉性压迫的例证:媒体通过大量报道大龄未婚女性单身母亲等话题,并利用平均工资低年龄大等刻板印象对单身女性进行污名化。这种刻板印象不仅反映在单身女性被歧视,也成为其他算法系统学习的数据,构成一个不恰当的反馈回路,加剧了性别不平等。
如何判断一个算法是否有偏见
可以见到,不公平的算法实际上正在加剧不平等,而算法本身的非实体性则很好地为他们开脱了罪名。假定我们接受了这种让机器拥有话语权的方式,则必须引入一个更高维的框架对算法进行约束与评价。作为一个无法了解详细结构的黑箱,AI算法的各个层级难以被规范化。在一个只有输入和输出的模型中,算法的输入数据只能通过筛选来规范,那么我们应该如何评价算法的结果?
一个广为接受的评价体系机会平等,是罗尔斯所提倡的平等理念在机器学习领域的体现,即在不同群体中,有资格并被判断为有资格的个体所占比例相同。对于算法公平性不同定义的应用广泛体现在了各个去偏算法中,而它们的结果却令人不甚满意:大部分去偏算法只是掩饰了一部分偏见。
那么,针对算法中依然存在的性别偏见,与其追求平等的概率,是否可以采取一个更为激进的角度,要求一种暂时的不平等,以对女性这一弱势群体做出补偿?我们认为,想要实现机会公平,一种补偿正义是必要的:必须保证每个人发展能力的机会平等。我们期望算法结果中针对以女性为代表的弱势群体的优待这不仅能够为弱势群体提供更多的展示的空间,更可以为未来算法学习提供数据。
偏见的去除探索
AI的背后是一套人造的算法模型,这是无法跳脱出的桎梏。百年前的遴选模型必然不适用于今日,需要AI背后的工程师们为它注入灵魂。而对于性别偏见,我们倡导从女性学与算法学两个方面进行去偏。
性别偏见在家庭、生育、职场等领域频繁出现。算法模型记录了历史状态,因而我们可以更多地关注训练数据、算法模型的选择。同时,我们可以吸纳更多的女性进入AI研究队伍。LinkedIN的分析发现,全球只有22的AI专业人士是女性。长期以来,以男性为主的创作者难免将偏见带入算法设计,使AI以男性的视角来看待这个世界。
此外,人工智能的黑箱模型并非完全不能干预我们期望从算法的角度介入大数据中的性别偏见。如今许多去偏算法,如几年前流行的硬去偏和谷歌最近在翻译中施行的覆写式去偏,都是通过修改某个与性别偏见有关的数值,进而干涉算法结果的例子。此外,建立一个完整的偏见审查机制以平衡训练数据中的性别比例和特征性别联系,或许是未来去偏的一大方向。
人工智能在展现其有利于人类的生活一面时,其性别偏见却令人心有戚戚。在追求性别平等的同时,科学技术、大数据背后所引发的社会不公平、不正义现象也应该为人类所警惕。人类性别平等的理想不应该迷失在技术的海洋里。
长按下方二维码订阅
2023年
《中国妇女报》《中国妇运》
来源中国妇女报(ID:fnb198410)
作者彭鲲志黄隽恺
封面摄图网
责编田园黄蝶审签一帆监制志飞
基金年度总决战打响,谁能笑到最后?11月最后一个交易日结束,2022年基金业绩年终大战正式打响。在主动权益型基金中,2022年度冠军似乎已无悬念。但年度二十强仍充满未知,今年来业绩排名靠前的基金11月份无一例外均取
如何选择兴趣班孩子的优势培养如何发现孩子的优势项,对于大多数家长来说是越早发现越好,这样家长可以集中兵力持续培养优势项,在优势项的带动下孩子会愈加有自信,其他中等项和弱势项也会有相应的改观。那如何甄别孩子优势
好听脱俗的仙女名字清水芙蓉之貌,顾盼生辉之态,气若幽兰之韵是女子美丽的象征。父母生了女孩之后总是盼望着女孩能够长得貌如朝霞流萤,那么不妨从小细节开始培养女孩唯美气质,如给女孩起个好名字。那么女孩名字
为什么没人把在家坐月子这件事讲明白!科学坐月子,远离月子病头条创作挑战赛学会这些,不请月嫂,在家也可以轻松坐月子!从金牌月嫂那里学来的价值10w的月子经验,准妈妈们赶紧收藏!关于月子护理注意事项关于月子喂奶关于月子餐关于产后修复补充恶L没
河北一家长辱骂老师,处罚结果出来了,尊重别人就是尊重自己孩子的教育,需要老师家长共同努力和引导,孩子才能在学业上取得进步。但现实生活中,难免有家长不懂得配合老师的教学工作,老师指出了问题,还不一定能够得到家长的理解。日前,河北某中学一起
宝宝什么时候可以断夜奶呢?这几个断夜奶的信号你知道吗从宝宝出生开始,宝妈们可以说是每天不分昼夜的照顾宝宝,尤其是半夜总是要起来喂奶,真的是非常辛苦,今天小欧育儿说的小编就来给大家说说如何才能给宝宝断夜奶吧。随着宝宝的月龄增加,任务量
影响孩子写作业杭州宝妈和广场乐队大伯大妈打了起来来源杭州日报微博26日晚,杭州闻潮派出所接到一名女子报警,称自己和一群大伯大妈起了摩擦。原来,近段时间开始,一群退休大伯大妈组了个二胡乐队,每天7点到9点,拿着一个音箱准时在小区楼
由一位妈妈带着一丝不挂的女儿逛超市的事件引发的思考早上,在朋友圈看到这样一个帖子有一位年轻的妈妈打扮得衣着靓丽,带着一个小女孩在逛超市,小女孩却一丝不挂,要说没工夫,但小女孩的头发却扎得整整齐齐,怎么看都有点别扭。据说有好心人上去
催乳师培训2老师课讲的挺好的,时时穿插做催乳师是没有年龄限制,地域限制,最最主要的是自由又能赚钱。对于我们这些既想赚钱又不想被时间限制,工作面不断缩小的人诱惑很大。就是未来不从事这个行业,也可
蓝台一哥华少走到今天这个地步怪谁呢?说起胡乔华,大家可能不知道他是谁,但若是说中国好声音节目中说加多宝广告词的华少,大家肯定会很熟悉。当年,华少凭借着平均每秒7。4个字的超快语速,迅速被大众认识,被大家称为中国好舌头
不期而至苏雯黑化,为了活命而犯罪,高峻背后的老板是只大老虎电视剧不期而至快大结局了,杨琼饰演的苏雯也暴露真面目,之前以为她是真心为了阮真真而调查许攸宁之死的真相。可是她从调查组出来后,整个人就变了,开始背着阮真真搞小动作了,如今知道了,她