机器人也要“男女平等” 有助于减少因人类偏见而产生的失误

Emma Chou

前瞻经济学人

3月,美国银行推出了新的应用内AI智能助手。名为Erica的机器人大概取自美国英文 “America” 的后半截。当然,Erica或许能够搞定一切,但给客户服务机器人一个女性绰号和声音已经成为一种惯例。

想想Alexa,Cortana和Siri。即使是在屏幕上进行网络聊天,也可能会出现一个女性化的名字。

要想找到她们的同行——男性机器人,就得进入偏向技术化、知识化的领域。诸如IBM Watson(与IBM HR助手“Myca”相比)和“法律顾问”机器人ROSS。还有金融分析师Kensho和银行聚合商Ernest。

在分工方面,人工智能有一个偏见问题,不仅仅是性别问题。这些机器人的音调和声音也具有显著的同质性。毕竟,人工智能承担着所“提供”数据的规范、关联和假设。

一种解决方案是通过使机器人在性别、种族和文化背景中表现更公平和更公正,从而来识别和纠正这些偏见。例如,Waze等公司为用户提供了一系列机器人身份选项。

另一个是停止建造“人性化”机器人。给机器人提供人名和身份源于这样一种信念,即这样做有助于人性化,鼓励人们接受和互动。但是现在,机器人和智能设备已经普及,因为在很大程度上打破了使用障碍。不再需要创建“人类”机器人,希望人们能够使用它们。

为何如此人性化?

考虑到我们与人工智能的关系,为什么不让机器人单纯成为机器人呢?这既管理了对机器人性能的期望,又最大限度地减少了偏见的影响。 (当然,人类总会把自己的偏见带到某种情况。)

例如,Kasisto的Kai bot是围绕“机器人”身份构建的。它的沟通和互动是由此形成的,而不是企图成为人类。 Capital One的Eno机器人采取了类似的方法,并且小心翼翼地保持性别中立。通过使你的机器人明显像机器人一样,也是在向用户发出信号,他们不一定期望与人对话,这一点至关重要,因为当你考虑到今天的人工智能在其核心领域专业知识之外进行对话的时候,通常表现十分挣扎。

然而,即使是“机器人”方法也有其自身的问题。隐性偏见很容易延续,特别是考虑到“纯粹机器人”仍然受到人类创造的框架的支撑。这种身份也很难在基于语音的交互中维持,因为语音更可能被编码为性别和文化标记,而不是文本。

剥离机器人身份

至少在理论上,“机器人”身份剥夺了明显的性别和文化偏见。但我们可以更进一步,从机器人中剥离身份和个性。

我们为什么要这样做?如今大多数机器人都以精简的方式解决问题。灌输一个具有丰富个性且会机智反击的机器人,实际上可以产生相反的效果:它会产生摩擦。

想想你与在线聊天机器人互动的时候。前几条消息通常是介绍性的。删除此序言并提示用户只需将问题键入框中,实际上是一种更简单的方法。尽管有“聊天机器人”这个名字,但用户并不需要聊天。他们是来解决问题的!

一个新的图灵测试

虽然个性可以帮助建立对数字助理的信任,但是一次性互动不需要相同水平的信任。在这种情况下,一个超人类机器人实际上正在解决错误的问题:它专注于移情而不是交互本身的需求和背景。在方便至上的时候,个性应该退居二线。

同样,高度个人化或敏感的互动也可能受益于低个性机器人的使用。如果他们不觉得自己受到评判,那么就更有可能自由而诚实地说话 —— 机器不会批判谁。输入风格也很重要。由于缺乏音调,可以感觉到文本比语音更公正。虽然音调变化在某些交互中是有益的,但在其它交互中,错误的音调可能会比没有更糟糕。

具有“个性”的机器人也是公司及其价值观的精确写照,而这正是人类员工所不具备的。它的动机、个性特征和行为都是由设计所塑造的,消费者可以很容易地将机器人视为品牌的延伸。如果出现偏见或不良行为,这可能会产生声誉后果。另一方面,一个没有个性的机器人可能带来的风险也相应较低。

回归本源

随着数字助理的制造者试图找到让他们的机器人更能反映当今世界的方法,也许答案很简单。

通过让机器人仅仅成为机器人,我们消除了嵌入刻板印象的风险,并消除了因我们自己的偏见而产生的失误。 当我们把机器人回归本源时,我们所担心的只是解决手头的任务——一如既往地解决数据问题。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐