中新经纬3月25日电 (薛宇飞)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。来自清华大学、中国人民大学、中国科学技术大学、对外经贸大学、北京邮电大学、北京科技大学等的十几位专家、学者,就推荐算法的公平性等多个热点问题展开讨论。研讨会上,中国人民大学高瓴人工智能学院发布了《算法公平性与内容生态建设》报告(下称报告)。 研讨会上,学者们分析了推荐算法公平性的特征和现状,对算法公平性的定义展开了多角度、多层面的讨论。上述报告和多位与会专家还对促进算法公平提出了许多有创新性、建设性的建议,推动了推荐算法更好地服务于社会大众,促进社会发展。 算法公平性研究与实践成新趋势 随着推荐算法应用的大范围普及,算法已经与人们的生活息息相关,而和算法相关的公平性议题,日益受到国内外学界和产业界关注。研讨会上,中国人民大学高瓴人工智能学院执行院长文继荣说:"进入人工智能时代,我们生活在与智能算法共存的新世界里,智能算法是一把双刃剑,如果能被有效利用,它可以成为有‘温度’的助手,但如果未利用好,算法可能会成为‘对手’,所以,研究算法公平性的重要性日益凸显。随着社会快速发展,算法公平性会引出很多问题,比如大数据杀熟等现象日益凸显,社会不同个体或者团体在资源占有、分配和使用中存在不公平现象,影响个体满意度和对算法的信任度,从而可能产生广泛的社会影响。" 对于算法不公平性产生的原因及其主要表现形式,《算法公平性与内容生态建设》报告做了详细分析。报告称,算法公平性是算法向善和可持续发展的核心理念,其公平性受到数据、设计等因素影响。首先,样本数据的有限性和可伪造性影响了推荐算法的准确性和公正性。由于商业竞争和对用户隐私的保护,与用户相关的全样本数据的获得并不具备可行性;同时,由网上人为伪造的点赞量、转发量等信息热度数据对于算法规则的欺骗,其带来的推荐结果必然包含误差和偏见。 报告称,其次,推荐算法由人为设计,其不可避免地会反映设计者对于世界的认识。如果有设计者将自身固有的社会成见嵌入规则之中时,智能算法在反映这种偏见的同时,也可能放大歧视倾向。再次,由于训练数据本身存在不同的流行度,推荐算法会受到流行性偏见、选择偏见以及曝光偏见的影响。随着时间的推移,使得流行和热门的项目被推荐的几率越来越大,而不流行或者冷门的项目则受到不公平待遇,被推荐的几率越来越小。 报告还称,算法公平性涉及需求方和供给方两方面。对于需求方(用户),常见的不公平现象为偏好放大、曝光偏见和大数据杀熟。以电商推荐场景为例,偏好放大指系统在一段时间内只推荐用户搜索的物品,即便用户已经购买或点击该物品;而曝光偏见是指用户只能看到被曝光出来的物品,而未曝光或曝光次数少的物品,由于缺乏用户行为数据而更加得不到曝光机会。 报告称,对于供给方,如电商场景下的商家/物品,常见的不公平现象为位置偏见和流行性偏见。位置偏见指位置靠前的物品比位置靠后的物品更容易被用户注意、点击、浏览、收藏或购买,从而使模型对用户偏好的感知出现偏差,进一步通过循环回路造成马太效应。流行性偏见指较为流行的物品更容易被推荐给用户,而不流行的物品只有较少机会被推荐展示,而与物品本身质量无关。长此以往,在流行与不流行物品之间形成分化,非流行的物品更加得不到公平展示机会,对平台自身也形成负面效应,如果推荐结果趋同导致用户体验变差,可能导致用户流失。 报告认为,推荐系统是数据、推荐模型和用户三者循环交互的过程,其生命周期可以抽象为用户到数据、数据到推荐模型和推荐模型到用户这三个阶段的反馈循环。中国人民大学高瓴人工智能学院博士后朱倩男在分享该报告时总结道,在用户到数据阶段,可能会有位置偏见、曝光偏见、选择偏见以及从众偏见等不公平问题;数据到模型阶段,可能会产生属性偏差、归纳偏差和探索偏差等不公平问题;模型到用户阶段,推荐结果可能会存在流行度偏见和对某些群体的不公平等。 微软亚洲研究院主管研究员吴方照也对算法不公平成因进行分析。他称,一是,有偏的数据是推荐算法不公平性非常重要的成因;二是,推荐系统用一个模型来覆盖所有用户,忽视用户的多样性和个性化,可能忽视某些少数群体,造成整个推荐系统不能公平对待某些群体的用户;三是,推荐系统的不公平性也可能源自系统的目标设计,比如推荐系统模型的训练目标追求点击量等,因此,在设计推荐系统目标的时候,要注意用合理的、主流的价值观去引领算法;四是,推荐系统的不公平性也可能来源于模型采用的一些相关技术,比如大模型和一些模型鲁棒性的技术。 报告指出,算法不公平性会影响用户黏性和长期留存,实现公平性对于推荐系统的不断优化、发展至关重要。面对推荐算法可能带来的流行度偏差、选择偏差等不公平性问题,国内外互联网企业如亚马逊、字节跳动、美团、阿里等积极探索可行方案,规避造成算法不公平的潜在因素,发展无偏推荐系统。亚马逊2019年宣布与美国国家科学基金会(NSF)合作,重点研究人工智能和机器学习的公平性问题,旨在促进人工智能技术发展的同时最大限度减少系统偏见,解决人工智能透明度和责任性等问题。今日头条不以短期使用时长为目标,通过建立多目标综合机制,引导产品开发设计和内容多样化发展,致力于实现需求方的公平性。 算法公平应根据场景和对象来界定 算法公平性是算法向善和可持续发展的核心理念之一,实现公平性对于推荐系统的不断优化、发展至关重要。清华大学计算机科学与技术系副教授张敏也称,过去,很多企业都认为实现算法的准确性与公平性是矛盾的,需要在两者间做取舍。"但是随着研究的不断深入,在探究算法公平性和准确性的关系上,我们近期的研究成果表明:提升公平性并不总是会使得推荐准确性下降,我们在真实场景的大规模数据上的实验结果,已经实现了在提升公平性的同时还能提升推荐系统的精准性。"张敏说道。 麻省理工学院在MIT technology review 发布的2021年10大突破技术中,称TikTok推荐算法兼顾了需求方和供给方两个角度的公平。该推荐算法使得普通用户发布的内容也有可能受到明星般的关注,迅速流行起来。同时,具有小众或细分需求的用户,也能看到自己感兴趣的内容。 张敏认为,TikTok推荐算法入选MIT Technology Review 2021的"全球十大突破技术" ,是算法公平性受到广泛关注的一个典型事件。她认为,TikTok推荐算法不仅能够精准地为用户推荐感兴趣的视频,还能帮助他们拓展其可能感兴趣的新的细分领域的内容,从而满足用户在新颖性和惊喜性方面的需求。TikTok推荐算法的入选,正是因为算法满足了每位个体用户的具体的细分兴趣需求,而不再仅强调追随热点的"从众效应"。 中国科学技术大学教授冯福利也称,他所在团队的主要工作是用因果推理技术去解决推荐算法的偏差问题,"并不需要对所有用户都解决兴趣放大的问题,有些用户就喜欢待在自己熟悉的兴趣里,如果强行去对抗他的兴趣,对他来说并不是一个精准的推荐。我们需要通过更精准的因果推断,做个性化的调整。对于有些用户,要消除兴趣放大问题,但对另外的用户,应该允许放大效应存在。如果能够做到更精准的因果推断,那就能够做到更好的权衡和取舍。" 不过,至于何为公平,如何定义公平,如何权衡公平与其他指标?这个持续困扰人类千百年的难题,同样在算法上有所体现,这也是本场研讨会上十几位专家热议的核心。 报告提出,定义清晰的公平性应用范围是前提。由于不同机器学习任务关注的焦点不同,很难确定一种通用的公平性定义,因此,明确公平性定义以及适用范围,是算法公平性研究所要解决的首要问题。 吴方照认为,现在缺乏对公平性的清楚、可信且广为接受的定义。他说:"如何定义公平性,这是最难的问题,不同场景下的公平是否一样?推荐系统做到什么程度才可以说是公平?我们要实现何种力度、何种层次的公平?如何权衡公平性和准确性?" 既然算法的公平性难以定义,北京邮电大学计算机学院助理教授白婷就提出,或许我们可以换个角度,不去界定公平性,而是去量化不公平性的后果,由此界定可接受公平性的阈值。她提出四个建议,一是量化不公平性的后果,明确不公平会导致哪些后果,这些后果是否是可接受的;二是明确不公平的指标,比如,不公平体现在哪些方面,是否可以出台一些办法去衡量;三是用通用的算法模型去模拟推荐结果;四是对不公平性进行预警并干预。 从不同主体的诉求出发,中国科学技术大学教授何向南认为,推荐系统是一个多方参与的游戏,不同群体对公平性和准确性的诉求不同。他说:"公平性很难定义,对于算法公平性的研究,需要考虑不同群体的不同诉求。" 研讨会上,多位来自法学界的专家也对算法的公平性发表看法,他们认为算法公平性较难定义。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣表示:"公平具有相对性,我们不能强求算法达到绝对公平。"北京科技大学文法学院副教授张凌寒指出,算法公平的界定应符合两点判断标准,一是需符合中国语境,二是需根据场景动态判断。对于算法公平的要求,并不是要求绝对、一致、完全的公平,而是在合理范围内的公平和公正。中国人民大学未来法治研究院执行院长张吉豫称,推荐算法的法律制度需要在不同场景之下进一步精细化设计,才能给出针对不同场景的、更细致的公平算法;在未来,精细性规则的界定,肯定是算法公平性发展的一个重要的方向。 促进起点公平、过程公平与结果公平 对于促进算法公平,上述报告给出了指导性建议。报告称,在社会科学领域,从时序角度出发,公平可分为起点公平、过程公平和结果公平。在推荐系统领域与之相对应的是数据、算法和结果公平。首先,保证数据公平是避免推荐不公平问题的基础。这是由于推荐系统使用大量用户行为数据作为系统学习的标签或信号,但用户行为数据存在各式各样的偏差,如果直接作为信号,学习出的模型参数不能准确表征用户在推荐系统中的真实行为意图,造成推荐效果下降。其次,保证无偏的建模过程是避免推荐算法带来不公平问题的重要抓手。最后,保证推荐结果对群体和个人的公平是避免推荐算法带来不公平问题的关键技术。 报告称,实现推荐公平性,要平衡好数据获取时的探索和利用环节。在推荐场景中,具有不公平性的偏差数据常来源于数据的被动获取过程,其原因为获取数据的策略对某一类数据具有偏好,而对其他类别的数据采集较少。针对这一问题,可在利用已获取数据的同时,以机器学习策略介入数据的获取过程,探索未知类别的数据。在信息推荐中,应提出基于探索-利用机制的智能信息推送模型,兼顾公平性与推荐效果,通过平衡探索和利用的关系来进行决策动作的选择。利用是为做出当前信息下的最佳决策,而探索则是尝试不同的行为继而收集有用信息,以得到更好的决策。综合应用探索和利用机制也可以避免信息推送的单一性,增加推送结果多样性,实现信息需求方和供给方的公平性。 报告称,实现推荐公平性,需开展公平性导向的算法模型设计。归纳偏置是从现实生活观察到的现象中归纳出一定的规则,对模型做一定的约束,起到"模型选择"的作用,即从假设空间中选择出更符合现实规则的模型。传统的人工智能算法在设计归纳偏置时,关注算法预测的高精度,而忽略了公平性这一目标,这一问题为推荐算法的成功应用带来了风险与挑战。人工智能算法设计应首先明确公平性在该场景下是否适用,并以公平性为导向,设计面向不同任务和场景的归纳偏置,尽可能将反歧视目标和强制性规则贯穿于算法模型之中,将避免不公平问题内化为算法设计原则,在保证算法高精度预测的同时维护用户的基本权益和社会的公平性。 报告称,实现推荐公平性,需建立算法及其相关主体公平性原则。在算法方面,建立和完善算法透明、算法可解释和算法问责机制,促进算法设计者尽可能将法律的反歧视目标和强制性规定贯穿于算法之中,从算法层面避免不公平性问题。此外,算法落地是工程实践的主要环节,是避免不公平性问题的关键步骤。在算法落地过程中,哪些环节有人参与,参与的哪个部分,参与的部分可能造成的影响需在特定范围内公开,避免算法落地过程产生由人为因素带来的不公平问题。算法研发人员需要遵守一些基本的伦理准则,不将自己的主观判断嵌入算法设计中,不利用算法做恶,坚持算法对社会有益、采取包容性的设计、支持多样性、透明性,以及重视用户隐私的保护等。 中国科学技术大学教授王翔建议,从推荐结果入手,让模型白盒化,捕捉和理解推荐模型的决策逻辑,到底应用和侧重哪些敏感信息,导致了哪些结果。他指出:"当推荐模型白盒化,透明化,就会更明确哪些场景或者面对哪些人群,算法会产生不公平,这样就可以去调节各项参数,使它变得公平和精确。" 专家建言多层次、立体化的算法公平 报告提出,算法公平性与算法的其他伦理问题并不是互相孤立的,推进算法公平性实践需要在整体的人工智能和算法伦理框架下考虑。不同企业应根据自身的业务领域、应用场景、所处国别/地域等实际情况来制定最合理的伦理原则框架。调研发现,国内算法技术领先的科技企业将"透明、责任、公平、隐私、安全"确立为最重要的人工智能伦理原则,这些原则相对独立也在某些方面有一定关联性;就公平性问题,企业提出自身人工智能技术的开发和使用不应带来非公平的偏见,应努力包容不同的观点,并将内部培训、运营策略、跨职能合作和技术投入作为落实AI伦理原则的具体路径。 研讨会上,多位与会学者认可上述报告有关促进算法公平性的建议,同时也从各自学科给出实现算法公平的建设性意见。对于算法规制,张吉豫认为要从信息披露、算法解释、公民投诉和维权机制几个方向努力,还要发挥科技团体在算法监督以及技术创新推进方面的作用。 从个体出发,中国人民大学高瓴人工智能学院助理教授陈旭提出,不同性格的人对公平性的诉求是不一样的,因此,在构建机器学习模型或者推荐系统模型时,可以把人的性格因素考虑进来。对于公平性诉求没有那么大的人,可以把公平性约束放得宽一些,这样的话,可以让推荐系统的性能得到更好提升,或者是对性能约束没有那么大。 张凌寒称,算法公平要放置在中国语境下,也要把它作为中国问题去解决。现在相关法律法规都比较有中国特色。比如2022年3月1日实施生效的《互联网信息服务算法推荐管理规定》,要求算法服务提供者坚持主流价值导向,优化算法服务机制,促进算法应用向上向善,同时还要求不得设置过度消费,违背伦理道德的算法模型。她认可发展"算法审计"的构想,即通过社会第三方机构进行算法的审计、检查,以解决个体遭遇不公平待遇时的举证难题。 张欣认为,促进算法公平要从技术、治理、生态三个层面出发。首先,在技术层面,加强对于算法公平的认证制度的开发;其次,在治理层面,加强对算法的公平审计和算法的影响评估;第三,在生态层面,通过协同治理来推动生态层面的算法公平。 "这三个层面的公平分别对应着短期、中期和长期层面的公平。" 中国科学技术大学博士后陈佳伟给出促进公平性的三点看法。一是统一公平性的方法,从结果层面统一定义公平并探索一种普适的纠偏方法;二是设置基准的数据集和评估标准;三是公平是动态的,应该追求长期累积的公平性。 研讨会的最后,中国人民大学高瓴人工智能学院副院长窦志成做了总结性发言。窦志成称,算法的公平性既是一个算法问题,也是一个社会问题,需将社科理念与技术方案融合在一起,跨学科构建社会认可的公平性算法。(中新经纬APP) 中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。