能猜透你心思的机器人 心智模拟理论在机器人中的应用

Frieza77

前瞻经济学人

想象一下,你站在电梯里面,电梯门已经开始关上了,突然你看到走廊尽头有一对夫妇朝你跑来,你在他们大喊之前就从他们的步伐和肢体语言中知道他们在赶你这部电梯,作为一个乐于助人的人,你用手挡住了门。在那一刹那,你读懂了别人的意图,并采取行动予以协助;这是那些人工智能机器设计师只能羡慕的人类本能行为。但随着研究人员尝试用各种方法创造具有预测社交能力的人工智能(AI),以帮助人工智能更好地与人互动,这种情况可能最终会得到改变。

例如,未来的行李员机器人将能够根据酒店客人微妙甚至无意识的行为来预测他们的需求和意图,而不仅仅是对一堆口头命令做出反应。布里斯托尔西英格兰大学的机器人伦理学教授艾伦·温菲尔德(Alan Winfield)说,机器人会以一台无意识机器的理解程度去“理解”周围发生的事情。

温菲尔德希望通过“心智模拟理论”(simulation theory of mind)来发展机器人的这种行为,这是一种人工智能方法,可以让机器人内部模拟人、物和其他机器人的预期需求和动作,并利用结果(与预先编程的指令一起)来确定适当的反应。换句话说,这些机器人会运行一个内嵌程序,将它们自己的行为与其他物体和人的行为结合起来。

温菲尔德说:“我制造的机器人可以模拟自己和其他机器人的内心世界。在机器人体内植入模拟的想法……是让机器人可以真正地预测未来的一种非常巧妙的方式,。”

“心灵理论”是哲学家和心理学家用来描述通过想象自己处于某物或某人的位置来预测自我和他人行为的能力。温菲尔德认为,让机器人做到这一点,将有助于他们推断周围的人的目标和愿望——比如意识到这对正在跑步的夫妇确实想要乘坐电梯。

这将Winfield的方法与机器学习区别了开来,机器学习中,人工智能系统可能会使用,例如,一个人工神经网络,它可以训练自己以满足用户期望的方式执行所需的动作。这种方式的一种日益普遍的形式就是“深度学习”,这涉及到构建一个大型神经网络,在某种程度上,它可以自动学习如何解读信息和选择适当的响应。

而基于模拟的方法依赖于预先编程的内部模型。温菲尔德用一个“结果引擎”来描述心智系统的模拟理论。换句话说,装备了该系统的机器人可以回答关于预测行动的简单的“如果”的问题。例如,如果它模拟左转,它可能会检测到它会撞到附近的墙。为了使这一预测成为可能,这些机器人被预先编程,它们掌握了基本的物理知识,以便了解物体碰撞时会发生什么。所以温菲尔德说他的机器人有一点“常识”。

目前,机器人只能在相对简单的情况下使用心理模拟理论。在今年1月发表的一篇论文中,温菲尔德和他的同事描述了一项实验,在实验中,机器人被设计成能够在更安全的走廊里移动(也就是说,不会撞到任何东西),并被赋予了预测附近其他机器人潜在移动动作的能力。这对于机器人来说并不是新的功能,但在这种情况下,温菲尔德的机器模拟了它自己的避碰策略的后果,以确保它们自己是安全的。温菲尔德在他的研究中承认,这项工作仍处于初级阶段,“距离成为一个完整的解决方案还有很长的路要走”。例如,他的行为猜测机器人穿过走廊的时间比直接走到另一边的机器人所需的时间要长50%。尽管如此,他还是认为“基于模拟的内部建模是人工心智理论发展过程中一个强大而有趣的起点。”

温菲尔德也承认,人们对心智理论还不是很了解。温菲尔德今年6月发表在《机器人与人工智能前沿》(Frontiers in Robotics and AI)上的一项研究称,科学家对人类大脑“导致思维理论产生的神经或认知过程”知之甚少。然而,他认为完全理解这些过程,并不是开发能够执行相似功能的人工智能的必要条件。

Winfield说,心智模拟理论的一个主要潜在优势是,它可以帮助机器人与人类更好地交流——随着自动化越来越多地进入人类的生活,这一特性将变得越来越重要。例如,有些人可能想让机器人在事后解释自己的行为——这一点人工智能通常无法做到,因为“深度学习”人工神经网络的内部工作非常复杂,可能会让人类在很大程度上置身于决策过程之外。那么帮助老人或病人的机器人呢?理想情况下,这种机器可以自发地向老年人发出警告,宣布它即将接近,以避免警报或混乱。就像一个护士说:“我要再给你一个枕头,这样你就可以坐起来吃药了。”这是一个只会做出行为的机器人和一个在采取行为前会考虑这种行为的机器人之间的区别。

研究人员正试图开发一种可以用人类语言来解释它们的决策过程的机器学习系统。例如,一个基本模型有一个人工智能程序,它能确定图像是否显示了一顿健康的饭菜,并解释其答案:“不”,因为图像中包含了热狗;“是”,因为它能检测到蔬菜的存在。但这类编程还处于初级阶段,远未达到普及的程度。

卡内基梅隆大学机器人研究所的助理教授Henny Admoni没有参与这项新研究,但他同意这种能力是有用的。Admoni说:“像Winfield所实现的模拟理论这样的东西有一个好处,那就是系统可以对它学到了什么,或者为什么做了什么作出解释。”

加州理工大学(California Polytechnic State University)伦理学与新兴科学研究小组(Ethics and Emerging Sciences Group)研究员 Julie Carpenter没有参与Winfield的实验,但Julie认为人们会更容易相信一个可以更清晰和准确地解释自己行为的机器人,“你必须相信,另一个个体和你有相似的目标——你们正在朝着同一个目标努力。”

现在Winfield已经制造出了能够执行内部模拟简单动作决定的机器人,他的下一步是让这些机器人能够口头描述他们的意图或过去的动作。如果一个机器人能够倾听另一个机器人的意图陈述,并通过模拟正确地解释这些陈述的话,那这将会是一个很好的实验。这个过程包括一个机器人口头描述一个动作——比如“我要扶着电梯门”——另一个机器人听到这个消息,然后在内部模拟动作和结果:电梯门会保持开着。

如果它们能以这种方式相互理解,那么理论上它们离理解我们又近了一步,Winfield说:“对这个实验我感到非常激动。”

可行性研究报告

广告、内容合作请点这里:寻求合作

咨询·服务

相关阅读

精彩推荐