非凡的人工智能(AI)已经进入我们的生活。在象棋、围棋或者解决预测蛋白质结构等深奥的科学问题方面,计算机的能力远远超过人类。但人类还拥有一项它们远远没有掌握的超能力:心理分析。 人类拥有推断他人目标、欲望和信念的不可思议的能力,这项重要技能意味着我们可以预见他人行为和自身行为的后果。心理分析对人类来说很容易。如果AI要在日常生活中变得真正有用——与我们进行有效合作,例如,就自动驾驶汽车而言,知道一个孩子可能会跟着球跑到路上——那么它们就需要建立类似的直觉能力。 麻烦在于,这要比训练一位国际象棋大师难得多。因为人类行为具有不确定性,这需要灵活的思考,而这对AI来说往往很难。但最近的一些研究成果,包括有证据表明,ChatGPT背后的AI能理解别人的观点,说明有社交能力的机器不是白日梦。更重要的是,这可能是朝着更宏伟的目标迈出的一步——拥有自我意识的人工智能。 美国哥伦比亚大学的霍德·利普森说:“如果我们希望机器人或所有AI无缝融入我们的生活,那么我们就必须解决这个问题。我们必须给它们这份进化赋予人类的礼物,即读懂别人的心思。” 心理学家把理解他人心理状态的能力称为心智理论。美国加利福尼亚大学伯克利分校的艾莉森·戈普尼克说,在人类身上,这种能力在很小的时候就开始形成。人类到了5岁左右,就拥有推断他人想法的高级能力。 理解人类 不过,人们还不清楚如何在机器中复制这些能力。问题之一在于,所谓的心智理论并非单一要求。美国布朗大学的伯特拉姆·马莱说:“人们所说的心智理论包括很多要素。这是能力的大集合。”这其中最简单的是理解行为背后的动机,而最难的是复杂的社交活动。 美国耶鲁大学的朱利安·贾拉-埃廷格说,最大的挑战之一是背景。比如,如果有人问你要不要跑步,你回答“外面正在下雨”,他们马上就推断出答案是否定的。但这需要大量关于跑步、天气和人类喜好的背景知识。 马莱说,在教会AI这些技能时,要从最简单的开始,尤其是考虑到心智理论的技能看起来是分等级的。他说:“某些能力在动物世界中更普遍,且在人类的发展中出现得更早,复杂程度更低。” 然而,即便教会机器最简单的社交技能也并非易事。它所涉及的计算与计算机通常使用的公式逻辑大相径庭。 英国曼彻斯特大学的塞缪尔·卡斯基说,最重要的是,它们需要学会应对不确定性。 一个人的内在心理过程是无法直接观察到的,所以你只能根据现有的证据做出有根据的猜测。这样做通常需要改变一种被称为强化学习的传统机器学习技术。按照传统的形式,这包括为AI设定一个目标,并在它采取有助于实现这一目标的行动时给予它奖励。通过反复试验和试错,它将学会达到目的的行为。“逆向强化学习”则是另辟蹊径:在一段时间里持续观察某人的行为,慢慢推测这个人想要干什么。这类似于儿童第一次看别人玩捉迷藏游戏,并迅速推测出不同玩家的目标是什么。 一种流行的逆强化学习方式依靠的是被称为贝叶斯推理的统计技术。这让你在分析新数据的同时考虑到之前的知识。卡斯基说,这项技术非常强大,因为它很好地应对了不确定性,使你可以利用已知信息,并适应新信息。 2022年,卡斯基及其同事塞巴斯蒂安·佩乌特利用贝叶斯推理的方法开发出一款原型数字助手,可以协助人类做出一系列相互关联的决定。在这个例子中,AI帮助人们根据预算、时间和偏好规划周末的观光行程。这个例子或许看起来微不足道,但卡斯基说,这从根本上类似于帮助解决工程设计等更复杂的任务,他的目标是开发协助科学家和医生工作的AI助手。他说:“真正的动力来自能够更好地解决更难的问题。” 迄今为止,大多数关于机器心智理论的研究依赖简化的场景,如推断移动智能体在基本二维网格世界中的目标。但美国麻省理工学院的乔希·特南鲍姆正试图将这些技术带入现实世界。2020年,他的团队把贝叶斯推理与机器人编程语言结合起来,他说这最终可能有助于将这些技术应用于机器人挑战。最近,他们把这项任务的复杂性提高到了三维层面。 特南鲍姆说,测试幼儿心智理论的关键方法之一是向他们展示其他人的视频,然后询问孩子这些人想要达到什么目的,他的团队希望用AI来尝试这项测试。2021年,特南鲍姆和他的同事们展示了一项新挑战,让AI观看3D卡通人物在坡道上奔跑、翻墙和穿门而过的动画。他们的贝叶斯模型在几种情景中都接近人类的测试水平。 特南鲍姆说,虽然现在还为时尚早,但他的团队正在与微软、IBM和谷歌的研究人员合作,这些研究人员有志于将他们的想法应用于真正的产品。他说:“我们还远远没有一个完整的心智理论模型。但我们有足够的基础材料,实际上已经达到工程规模,可以在一系列应用发挥作用。” 深度学习 还有一些研究人员采取了完全不同的路线。近年来最受关注的人工智能进步大多依赖深度学习神经网络,一个受大脑启发的算法家族。一个重要特点是,程序员们很少在这些系统中建立以前的知识,而是让它们吸收海量数据来学习经验。 谷歌旗下“深层思维”公司的研究人员开发的“心智理论网络”(NoM-net)就采用了这一路线。2018年,他们证明,NoM-net可以通过“错误信念测试”。此后,还有一些研究者也把类似的想法应用于更复杂的领域。 利普森说,儿童心智理论发展的一个关键里程碑是,能理解他人观点可以与自己的观点不同。比如,4岁以下的孩子常常会闭上眼睛就以为自己躲起来了,认为他们看不到你,你就看不到他们。因此,2019年利普森及其同事用深度学习AI挑战了一场捉迷藏游戏。 他们创造了一个布满障碍物的3D模拟场景,并放入两个智能体——一个捕食者和一个猎物,它们唯一的信息来源只有从环境中获得的一手信息。捕食者受一套规则的支配,这些规则旨在帮助它找到另一个智能体;而猎物受神经网络控制,经过多次试验后,这些神经网络成功地学会了如何躲藏。 利普森说,要挑战成功,猎物必须会通过捕食者的眼睛看世界。他说:“我认为这是心智理论的根本。要能够真正从另一个人的角度来看世界,而不仅仅是从逻辑上思考。” 2021年,利普森及其同事扩展了他们的方法,证明在用数千张机器人进行简单活动的图片进行训练后,AI可以猜出机器人的目的,准确率达到99%。它甚至能通过“错误信念测试”。 构建知识 利普森的方法的一个关键动机是,他希望心智理论在学习过程中自发地出现。他说,把以前的知识植入到AI中,会让它依赖我们对心智理论的不完美理解。此外,AI或许能开发出我们永远无法想象的方法。利普森说:“还有很多形式的心智理论我们并不了解。原因很简单,因为我们存在于一个拥有特定类型感官和特定思考能力的人体中。” 本月早些时候,斯坦福大学的迈克尔·科辛斯基报告了这方面心智理论发展的振奋人心的证据。他在一篇未经同行评议的论文中介绍,他用一些经典的“错误信念测试”文本信息“投喂”ChatGPT背后的深度学习AI。在没有经过任何特殊训练的情况下,AI在测试中的表现达到了9岁儿童的水平。 美国元宇宙公司研究人员的最新成果表明,将多种方法结合在一起可能是更强大的手段,可以复制一些涉及心智理论的能力。去年11月,他们开发出一款名为“西塞罗”的AI,它能在战略棋盘游戏《外交》中打出人类级别的表现。这款游戏最多可有7名玩家,目标是争夺欧洲的控制权。在每轮比赛前,玩家可以相互谈判并结成联盟。这对AI来说极具挑战性,因为这不光需要有效的沟通,还需要预测其他玩家的意图,以研究如何合作。 该团队通过将一种深度学习语言模型与一种战略规划模型相结合,解决了这一难题。最关键的是,规划模型依靠的是博弈论的概念,即用数学模型来理解战略决策。西塞罗利用真实《外交》游戏的数据进行训练,以预测玩家会根据棋盘状态和之前的对话做什么。这些随后被纳入规划模型中,该模型提出了一种策略,即在所有玩家理论上的最佳行动,以及他们的对话暗示他们要做什么之间进行权衡。然后,西塞罗会生成对话,以帮助它实现目标。在一个在线联盟的排名中,它进入了前10%,但并没有引起人们对它是AI的怀疑。 主要研究人员之一诺姆·布朗说:“我认为我们真正做到了让它理解玩家的信念、目标和意图。”这是在通向具有社交能力的机器的道路上迈出的重要一步。但特南鲍姆说,西塞罗模拟玩家心理过程能力还算不上真正的心智理论,因为这局限于《外交》这款游戏,不能应用在其他任务中。他说:“它们似乎已经获得了一些反映人类运用心智理论的策略,但这并不等于它们已经获得了心智理论。” 特南鲍姆说,我们希望AI拥有更接近人类的心智理论,是有现实原因的。深度学习系统通常是黑匣子——很难破解它们究竟是如何做决定的。另一方面,人类可以用自己的语言和思想,清晰地向其他人解释自己的目标和愿望。特南鲍姆说,尽管基于学习的方法可能在开发更强大的AI方面发挥重要作用,但以共享的方式构建知识可能对人类信任AI并与之沟通至关重要。 特南鲍姆说:“它们应当在根本上具有类人性。如果只是走大数据路线,并进行大量机器学习,我认为是得不到这些的。”他还说,如果我们希望利用AI来帮助我们更好地理解心智理论对人类的作用,这一点同样重要。 不过,利普森说,重要的是要记住,向机器灌输心智理论不仅仅是为了制造更多有用的机器人。这也是在为实现人工智能和机器人研究的更深层次目标铺路,这个目标就是——制造真正有感情的机器。 注:文章及图片转载自网络,如有侵权请联系删除 |