人工智能有助于更快地发现不公平的算法
人工智能系统一直在部署,但可能需要数月甚至数年才能弄清楚它们。一群人工智能和机器学习专家正在发起一项新的赏金竞赛,他们希望这将加快发现这些嵌入的过程。
该竞赛从网络安全中的漏洞赏金中汲取灵感,呼吁参与者创建工具来识别和减轻AI模型中的算法偏差。它由一群在推特、软件公司Splunk和Deepfake检测初创公司RealityDefender等公司工作的志愿者组织。
第一场偏见赏金竞赛将专注于有偏见的图像检测。这是一个常见问题:例如,在过去,有缺陷的图像检测系统将黑人误认为是大猩猩。
竞争对手将面临建立机器学习模型的挑战,该模型用肤色、感知性别和年龄组标记每张图像,这将更容易测量和发现数据集中的偏差。他们将获得一个包含大约15000张合成人脸图像的数据集。参与者根据他们的模型标记图像的准确程度以及代码运行所需的时间以及其他指标进行排名。
微软和初创公司已承诺为获胜者提供6000美元的奖金,为亚军提供4000美元的奖金,为第三名提供2000美元的奖金。亚马逊为第一批计算能力的参赛者捐赠了5000美元。
这场比赛是人工智能中新兴行业的一个例子:算法偏差审计。推特去年推出了第一个AI偏见赏金,斯坦福大学刚刚结束了第一个人工审计挑战。与此同时,非营利组织Mozilla正在为人工审计员创建SDK工具。
这些审计可能会变得越来越普遍。它们被监管机构和人工智能伦理专家誉为让人工智能系统承担责任的好方法,并且它们将成为某些司法管辖区的法律要求。
欧盟新的内容审核法《数字服务法》包括对大型科技平台使用的数据和算法的年度审计要求,欧盟即将出台的人工智能法案也可能允许当局审计人工智能系统。美国国家标准与技术研究院也建议将人工智能审计作为黄金标准。在布鲁金斯学会智库研究人工智能治理的亚历克斯恩格勒表示:这些审计将类似于我们在其他高风险行业(如化工厂)中看到的那种检查。
问题在于,没有足够的独立承包商来满足即将到来的对算法审计的需求,而且公司不愿意让他们访问他们的系统,专门研究人工智能问责制的研究员黛博拉和她的合著者在一个去年六月的论文。
这就是这些比赛想要培养的。人工智能社区的希望是,他们将带领更多的工程师、研究人员和专家发展技能和经验来进行这些审计。
迄今为止,人工智能世界中的大部分有限审查要么来自学术界,要么来自科技公司本身。像这样的比赛的目的是创建一个专门从事审计人工智能的新领域。
推特道德团队主管拉曼乔杜里表示:我们正在努力为对这类工作感兴趣的人、想要开始工作的人或不在科技公司工作的专家创造第三个空间。
领导Cohere的人工智能的萨拉胡克表示:这样的竞赛不仅为机器学习社区进行审计创造了动力,而且还促进了‘如何最好地审计以及我们应该投资哪些类型的审计’的共同理解。
蒙特利尔人工智能伦理研究所的创始人阿布舍克古普塔曾是斯坦福大学人工智能审计挑战赛的评委,他表示,这项努力非常棒,绝对是非常需要的。
阿布舍克古普塔表示:你对系统的关注越多,我们就越有可能发现存在缺陷的地方。
大家可以在文章底下进行留言,让远信和大家一起看到你的发言吧!
【文章的内容仅为个人观点!喜欢文章的朋友不妨给远信点个赞、关注以及转发,让更多的朋友收到远信的文章!你们支持是远信坚持创作的动力。】