84%全球高管质疑AI可靠性 企业需从5个维度审视AI技术

黄琨

ai

从加强自动化到超越自动化,AI已经改变了商业运作的方式,并逐渐释放造福整个社会的无限潜力,各行各业的企业都渴望从AI盛宴中分得一杯羹。普华永道最新研究估计,到2030年,AI可能为全球经济带来15.7万亿美元的财富增长。

然而,在这一美好畅想下,越来越智能的AI系统和日益普及的人机交互所带来的快速发展和大规模变革,也引发了商界领袖和消费者之间明显不同的担忧。

消费者要的是享受量身定制服务带来便捷性的同时规避风险,包括保证大企业大集团对他们没有偏见,以及政府制定法律法规严格确保他们的数据不被滥用。

与此同时,企业的目标却是尽可能地挖掘AI带来的机遇,在这个基础上才是对可能的风险进行自我教育。

普华永道一份“全球CEO调查”发现,AI的机遇和风险是全球高管们普遍关注的焦点。对于前者,85%的CEO确信,AI将在未来5年内显著改变他们的经营活动。有意思的是,对AI技术最为“迷信”的是中东土豪和亚太地区企业高管,而在普遍认为处于技术前沿的北美地区,反倒是最少人相信AI会改变世界的。

但关于AI究竟有多可信的问题,人们的意见产生了分裂:超过3/4的CEO认为AI“对社会有好处”,但是更高比例——84%——的CEO认为,基于AI的决策需要对人类作出解释。

调查还发现,全球受访的这260位高管对AI的责任、道德存在截然不同的理解和应用方式,且大多数情况都显得不成熟。此外,众高管在学习相关技能方面存在挑战。

很明显,这群人都需要重新审视他们企业组织内部的AI应用方式,就一些关键问题作出自我询问和自我批评。

应对AI挑战的5个关键维度:

1、管制

负责任AI的基础是端到端的企业治理。在其最高水平下,组织应能够回答有关AI应用程序决策和结果的关键问题,包括:

谁该对此负责?

AI如何和商业战略结合?

可以通过修改哪些流程来改进结果?

需要控制什么变量来跟踪性能和查明问题?

结果是否一致且可重复?

如果能全数回答这些问题,说明企业具备对AI系统结果作出响应的能力,这需要一种比现代许多组织所习惯的更灵活和适应性更强的治理形式。

2、道德规范和监管

各商业组织开发的解决方案既要在道德上负责,又要在法律上站住脚。过去几年来,相关领域已经提交70多份关于AI伦理准则的文件发表。

尽管大多数这类道德原则看上去都是对的,但在实际应用中,企业会发现,将它们转化为影响日常决策的具体行动是一项挑战。要使这些原则能够付诸实施,就必须把它们与前线工作人员的具体指导方针结合起来。这涉及到将每个AI解决方案的伦理考虑纳入上下文,识别和降低伦理风险。

3、可解释性

在某种意义上,任何使用AT的企业都应该向各种利益相关者解释为什么特定的AI模型会做出特定的决策;这些解释应该针对不同的利益相关者,包括监管机构、数据科学家、商业赞助商和消费者。

在AI决策中缺乏可解释性,不仅会让最终用户或客户感到迟疑,还会使组织面临运营、声誉和财务风险。为了使AI系统值得信任,有必要让人们能够深入了解它们的底层模型,研究用于培训它们的数据,揭示每个决策背后的推理,并及时向所有利益相关者提供一致的解释。

4、安全性

为了保证有效可靠,AI系统需要具有弹性和安全性,或者用行话来说是“鲁棒性”。在适应力方面,下一代AI系统可能会越来越具备“自我意识”,具有检测和纠正错误以及不准确或不道德决策的内置能力。

在安全方面,由于AI数据或系统被破坏或“劫持”的潜在灾难性后果,从一开始就必须在人工智能开发过程中构建安全机制,确保其覆盖所有人工智能系统、数据和通信。例如,如果“停车”标志的图像被人为地曲解为“时速30英里”的标志,这可能会给自动驾驶汽车带来灾难性的后果。

然而,最重要的是,人工智能系统必须保证其对受影响的人来说是安全的,无论他们是人工智能的用户还是人工智能决策的主体。

5、偏见和偏好

偏见通常被认为是与人工智能相关的最大风险之一,但是消除偏见是一件做远比说更复杂的事。

公众对人工智能偏见的讨论,往往将责任归咎于算法本身,而没有考虑到人为因素。人们通过对公平的主观判断来感知偏见,而对公平的定义来源于一种带有强烈地方差异和许多不同甚至冲突定义的价值观。

事实上,不可能每一个决定都对各方公平,不管是否涉及人工智能。但调整系统以减轻偏见,使决策尽可能公平,并遵守组织的企业道德准则,以及反歧视法规,这些是可能的。

有一件事是肯定的:任何组织要实现人工智能的全部设想,就必须确保其使用人工智能负责任地处理上述维度。简而言之,如果人工智能不负责任,它就不是真正的智能。

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐