不只性别、种族歧视,AI可能还会“嫌贫爱富”
长期以来,对AI偏见的担忧一直是业内重点讨论的话题。以前这方面讨论多集中在性别歧视、种族歧视问题上,如今又有研究发现,包括谷歌、微软和亚马逊等科技巨头推广的物体识别算法,都存在对来自低收入国家的物品时识别表现更差的现象。
这是Facebook AI实验室进行的一项新研究的结果,该研究表明,AI偏见不仅会重现国家内部的不平等,还会重现国家之间的不平等。
在这项研究中,研究人员测试了5种流行的现成物品识别算法——微软Azure、Clarifai、谷歌Cloud Vision、亚马逊reko和IBM Watson——以了解每个程序识别全球数据集中各种家庭物品的能力。
数据集包括117个类别(从鞋子到肥皂再到沙发),并以不同的家庭收入和地理位置(例如月收入27美元的布隆迪家庭和月收入1090美元的乌克兰家庭)作了区分。
研究人员发现,与月收入超过3500美元的家庭相比,在识别月收入50美元的家庭物品时,算法出错的几率一下子高出了10%左右。而在准确性上的绝对差异甚至更大:与索马里和布基纳法索家庭的物品相比,这些算法在识别来自美国的物品方面要高出15-20%。
研究作者表示,他们在“一系列商用云服务的图像识别算法中得出了一致结论”。
这种偏见有很多潜在原因,最常见的解释是,用于创建算法的培训数据往往反映了相关工程师的生活和背景。而由于这些人通常是来自高收入国家的白人男性,他们教授的课程所要识别的世界也是如此。
研究作者分析,有几个可能的原因导致了这种现象:第一,用于创建系统的训练数据受地理限制,第二,算法本身无法识别文化差异。他表示,视觉算法的训练数据主要来自欧洲和北美,而“在人口众多的地理区域,特别是非洲、印度、中国和东南亚,对视觉场景的采样严重不足”。
人工智能偏见最著名的例子之一是面部识别算法,这种算法在识别女性面孔时,通常表现得更差,尤其是有色人种女性。这种偏见会渗透到各种各样的系统中,从计算假释的算法,到即将到来的面试前评估简历的算法。
还有一种情况是,大多数图像数据集使用英语名词作标记,并收集相应的数据。然而,某样存在于某个地区的东西,在别的地方可能并不存在,也有可能出现同样名字对应在不同国家对应不同事物的情况。比如说“dish soap”这个英语单词,直译为洗碗皂,在一些国家指的是一种肥皂,但在某一些国家,“洗碗皂”却是一种液体容器。
这项研究结果说明什么?首先,这意味着任何使用这些算法创建的系统对于低收入和非西方国家的人来说都会表现得更差。由于美国科技公司在AI领域处于世界领先地位,这可能会影响到从照片存储服务和图像搜索功能,到动安全摄像头和自动驾驶汽车等系统的方方面面。
这还可能只是冰山一角。行业对视觉算法的偏见已经有了警惕,但创建这些程序的渠道同样也在为整个行业提供算法,而一些不受重视的算法可能永远不会受到怀疑。
总而言之,硅谷经常把自己的产品——尤其是近年来的AI产品——宣传为人人平等、人人可得。但类似的研究表明,科技公司继续按照自己的形象评估、定义和塑造世界。
广告、内容合作请点这里:寻求合作
咨询·服务