人工智能又出现故障了?很有可能那并不是意外!

Connor Feng

前瞻经济学人

谈到人工智能的无意识偏见时,人们往往侧重于那些无意中对整个社会造成不成比例的伤害的算法,例如错误地预测黑人被告在未来会犯罪的算法,或面部识别技术主要利用男性白人的照片,所以不能很好识别女性白人和深色皮肤的人。

但问题可能远不止于此,社会应该警惕另一种变化:心怀不轨的人有可能会把偏见偷偷混入帮助这些系统学习的数据中,从而故意引入偏见来攻击人工智能系统。这可能会给网络攻击、虚假信息活动或虚假新闻的扩散带来一个令人担忧的新层面。

根据美国政府对大数据和隐私的一项研究,有偏见的算法可以更容易地掩盖歧视性贷款、招聘或其他令人不齿的商业行为。算法可以被设计来利用看似无害的但具有歧视性的因素。使用现有的技术,但使用有偏差的数据或算法,可以更容易地隐藏个人邪恶的意图。商业数据经纪人收集和持有各种信息,如人们的在线浏览记录或购物习惯,以及其他可以作此种用途的信息。有偏见的数据也可能成为诱饵。企业可能会发布带有偏见的数据,希望竞争对手利用了这些数据来训练人工智能算法,导致竞争对手降低自己产品的质量,从而降低消费者对其的信心。

算法偏差攻击也可以使推进意识形态议程变得更容易。如果仇恨团体或政治倡导组织希望基于种族、性别、宗教或其他特征来针对或排斥人们,带有偏见的算法可以给他们提供正当理由或更先进的手段去直接这样做。有偏见的数据也可能在重新划分确定种族隔离(“红线”)或限制投票权的努力中发挥作用。

最后还有来自外国势力的国家安全威胁,外国势力可能会利用蓄意的偏见攻击,通过破坏政府合法性或加剧公众两极分化来破坏国内社会稳定,这很自然地与据说试图利用意识形态分歧的策略不谋而合,这些策略包括创建某些社交媒体帖子和投放某些在线广告,以加剧种族紧张关系。

在算法决策中注入刻意的偏见科仪是极其简单和有效的。这可能涉及复制或加速产生偏见的已有因素,其实许多算法已经被提供了包含有偏见的数据,事先知道它们所包含的偏见之后,攻击者可以继续使用这些数据集来训练算法。这可能导致的看似可信的否认,正是这些攻击如此阴险和十分可能奏效的原因。攻击者可能会利用科技行业中针对偏见的关注浪潮,加剧围绕多样性和包容性问题的两极分化。

篡改训练数据“毒害”算法的想法并不算完全新颖。美国高级情报官员警告说,网络攻击者可能会秘密访问,然后修改数据,以损害数据的完整性。这证明了寻找和解决恶意意图将是一个重大的挑战,但动机可能无关紧要。任何偏见都是令人担忧的,这是社会基础设施完整性的结构性缺陷。政府、企业和个人越来越多地以不同的方式收集和使用数据,而这些方式都可能会导致偏见。

这表明偏见是一种系统性的挑战——一种需要整体解决方案的挑战。对人工智能中无意识偏见的修复,旨在提高劳动力多样性,扩大对多样化培训数据的访问,并建立算法透明性(观察算法如何产生结果的能力)。

目前已经有一些行动来实施这些想法。学者和行业观察人士呼吁进行立法监督,以消除技术偏见。许多科技公司也已承诺,将通过多元化员工队伍和提供无意识偏见培训来打击产品中的无意识偏见。

正如历史上的技术进步一样,我们必须继续研究我们如何在社会中运用算法,以及它们会产生什么结果。识别和解决那些开发算法的人、以及那些用于训练算法的数据中的偏见,将有助于确保人工智能系统造福于我们所有人,而不仅仅造福那些利用它们的人。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐