几年前,我写了一篇关于研究表明库存图片往往存在偏见的文章。这导致搜索“工程师”主要返回男性图像,搜索“清洁工”主要返回女性图像。
纽约大学的研究强调了这种有偏见的搜索结果是多么有害。该研究表明,即使是性别中立的互联网搜索者,仍然经常会产生男性主导的结果,这会对招聘决策产生重大影响,并有助于传播性别偏见。
研究人员解释说:“人们越来越担心现代人工智能系统使用的算法会产生歧视性的输出,这可能是因为它们是根据嵌入了社会偏见的数据进行训练的。” “因此,人类使用它们可能会导致现有差异的扩大而不是减少。”
传播偏差
在《 平等机器》中,圣地亚哥大学的 Orly Lobel 认为,虽然我们经常关注基于人工智能的技术在传播偏见方面的负面影响,但它们也可以在使事情变得更好方面发挥关键作用,因为它们能够消除偏见。人类决策过程中难以消除的偏见。这是纽约大学研究人员共享的一项提议。
他们解释说:“这些发现需要一种道德人工智能模型,将人类心理学与计算和社会学方法相结合,以阐明算法偏见的形成、操作和缓解。”
当今 AI 系统面临的许多问题都是由于它们所训练的带有偏见的数据造成的。存在各种例子来强调这一点,例如亚马逊著名的亚马逊最佳员工算法是基于公司主要的白人男性劳动力。
道德人工智能
为了尝试改善问题,研究人员进行了多项研究,以确定社会本身的不平等程度如何转化为算法输出的偏见程度,以及由此得出的结果如何影响决策者以使偏见永久化.
他们首先从全球性别差距指数 (GGGI) 收集数据,该指数提供了大约 150 个国家的性别不平等排名。该指数涵盖了广泛的不平等指标,包括经济参与、健康和生存、教育程度和政治赋权,然后给每个国家一个“性别不平等”分数。
然后,他们试图评估搜索结果和其他形式的算法输出中的性别偏见程度。他们通过检查通常应该提供平等机会提及男性或女性的词来做到这一点,这些词被算法假定为男性。这些包括诸如“学生”或“人类”之类的东西。
他们通过谷歌对 37 个不同国家的主要当地语言中的这些短语进行了搜索,结果表明,在性别不平等程度较高的国家,具有男性偏见的图像比例较高,这表明算法正在跟踪社会中更普遍的性别偏见。
影响行为
然后,研究人员着手了解接触这些有偏见的算法是否足以塑造人们的看法,甚至他们的决定是否符合预先存在的不平等。
他们通过一系列实验向参与者展示了四种不同职业的谷歌图像搜索结果,所有这些都被设计为参与者不熟悉,包括钱德勒和佩鲁克。
每个职业的性别构成是根据在全球性别不平等得分较高的国家(如匈牙利和土耳其)以及性别不平等得分较低的国家(如芬兰和冰岛。
每个参与者在开始之前都提供了关于每个职业的所谓原型声明,作为后续实验的基线。这涉及到他们被问到每个职业更可能是男人还是女人。一直以来,志愿者都认为每个职业中男性多于女性。
被规范所吸引
在看到图像搜索结果后被问到同样的问题时,处于低不平等条件下的志愿者始终将他们偏向男性的原型与他们最初的基线评估相反。那些处于高度不平等状态的人通常保持他们的男性偏见,这通过图像搜索得到了加强。
更重要的是,在随后的实验中,这种暴露会影响到一个人的招聘偏好。参与者被要求评估男性或女性在每个职业中被雇用的机会,同时还展示了两名可能的候选人(一名男性,一名女性)的图像。当被问及他们会雇用谁时,在低不平等条件下,接触图像会产生更平等的决定,而在高度不平等条件下会产生更多有偏见的结果。
“这些结果表明社会、人工智能和用户之间存在偏见传播的循环,”研究人员总结道。“研究结果表明,互联网搜索算法中的社会不平等程度是显而易见的,接触这种算法输出可能会导致人类用户思考并可能以加剧社会不平等的方式行事。”