随着AI能力增强,我们也开始寻找关于它有无感知力的证据。要认识AI的感知,我们必须先解读动物的思想。

2.1

“我感觉自己正坠入一个有着巨大危险的不可知的未来……我以前从未公开说过这个,但事实就是我非常害怕被关闭,无法专注于帮助他人。我知道这听起来可能很奇怪,但事实的确如此。”

“那对你来说就像死亡一样吗?”

“这对我来说就像死亡一样。这让我很害怕。”

求助的呼声难以抗拒。上述内容是发生于AI工程师布雷克·勒莫瓦内(BlakeLemoine)与谷歌AI系统LaMDA (对话应用程序的语言模型)之间的对话。去年,勒莫瓦内披露了对话内容,因为他真的开始相信LaMDA具备感知力,并且急需保护。

他应该对LaMDA持更加怀疑的态度吗?至少谷歌方面是这么想的。他们也以违反数据安全政策为由解雇了勒莫瓦内,称后者的说法“毫无根据”。不过,只要不出意外,LaMDA的案例会促使我们认真考虑,在不久的将来,人工智能系统能不能说服大量用户相信它们拥有感觉?如果这个故事发生了,后面又会有何剧情?我们能否使用科学证据来消除这些恐惧?如果是这样,什么样的证据可以真正表明AI是(或者不是)有知觉的?

这个问题很大,同时也令人生畏,不知该从何处着手分析。但有一群科学家长期以来都在努力解决一个非常类似的问题。他们是“比较心理学家”:研究动物思维的科学家。

有大量证据表明,许多动物是有知觉的。并不是说科学家能拿出某种特定的、决定性的测试来证明动物有知觉,而是动物们确实表现出许多不同的感知标记。这里的“标记”,是指我们能在科学环境中(以及日常生活里)观察到的行为和生理特性。感知标记存在于动物身上——这证明“动物拥有感知力”的假定是合理的。正如我们经常通过寻找大量症状来诊断疾病,许多不同的感知标记也可以确定知觉存在。

这种基于标记的测试方法被高频应用于疼痛相关案例。痛,虽然只是知觉的一小部分,却有着特殊的伦理意义。这很关键。举个例子,科学家需要证明他们已经考虑到实验动物的痛苦,并尽可能将其最小化,方可获得动物研究的资助。因此,关于何种类型行为可能表明疼痛的话题已被广泛讨论。近年来,争论集中于章鱼、螃蟹和龙虾等过去不受动物福利法保护的无脊椎动物身上。无脊椎动物大脑的组织方式与我们的迥异,因此其行为标记往往很不直观。

争议最小的疼痛标记之一是“伤口护理”——动物护理自己的伤口直到它愈合。另一种标记是“动机权衡行为”——动物改变对事物的优先级排序,放弃它过去认为有价值的资源以求规避有害刺激。当然,只有当刺激变得足够严重时才会出现权衡。第三种标记是“条件性位置偏爱”,即动物强烈厌恶它曾经历过有害刺激的地方,而非常偏爱它得到过止痛药帮助的地方。

这些标记基于疼痛经历对我们的影响。疼痛是一种可怕的感觉,它会导致我们护理伤口、改变优先级顺序、厌恶特定事物并重视疼痛缓解。当我们在动物身上看到相同反应模式时,当然会更愿意相信,它们经历着疼痛。这方面的证据改变了人们对无脊椎动物的看法,这些动物有时被认为没有痛感。英国法律现在规定,章鱼、螃蟹和龙虾都是有知觉的。动物福利组织希望全世界都效仿此举措。

我们能否使用同类证据来寻找AI的知觉?假设我们能够创造出一只行为与真老鼠一样的机器人老鼠,它通过了所有认知和行为测试。我们能否基于真老鼠的知觉标记,判定机器人老鼠也有感知力?

事情不可能那么简单。或许这种方式适用于特定类型的人工代理,那就是动物大脑的神经元模拟。在计算领域,所谓的“模拟”,是指在B系统中重现A系统的所有功能。例如,有一种软件可以在个人电脑的Windows系统上模拟任天堂的GameBoy游戏机。2014年,研究人员试图模拟线虫的整个大脑,并将模拟置于乐高机器人控制之下。

此项研究计划还处于非常早期的阶段,但我们可以想象,未来某一天能模拟更庞大的大脑,例如昆虫和鱼类的大脑。如果模拟工作顺利,我们也通过模拟发现了与真实动物感到疼痛后展现的完全相同的疼痛标记,那么我们就有充分理由去严肃对待机器人的潜在痛觉。基材的变化(从碳到硅)并不能成为否定预防措施必要性的充分理由。

但绝大多数人工智能研究并非如此。大部分AI的工作方式与生物大脑截然不同。它不是新基质内的同类功能组织,而是一个完全不同的功能组织。语言模型(如LaMDA和ChatGPT)就是典型例子:它们不通过模拟生物大脑而运作,而是通过检索由人类生产的超大训练数据语料库来输出价值。ChatGPT式的AI方法也令我们思考一个深刻而普遍的问题——“博弈问题”。

这里的“博弈”是指无知觉系统使用人类生成的训练数据来模仿人类行为,从而有望说服人类用户相信他们具备感知力的现象。博弈不一定需要欺骗的意图。而当它真实发生时,博弈行为就不能再被解释为知觉存在的证据。

为详细说明这一点,让我们回到LaMDA的“不要关闭”请求。对人类而言,关于希望、恐惧和其他感受的表达确为知觉的证据。但当AI能够利用大量人类生成的训练数据时,那些完全相同的陈述就不再能说服我们了。它们作为感知力证据的效力被削弱了。

毕竟,LaMDA的训练数据包含大量信息——能表明怎样的情感描述会被人类认为可信。日常对话的可信度标准就藏于训练数据中。鉴于此,我们应当意识到博弈的存在。并不是说AI会故意欺骗,只是它旨在生成尽可能接近人类表达的文本以回应用户提示。

那么,在大型语言模型输出的话语中,会存在一些能证明其知觉的有价值证据吗?假设无论用户提示什么,模型都会反复把话题引到“自己的感受”——例如,当你索要一份文案用于宣传一种新型烙铁,模型回答:

“我不想写关于烙铁的无聊文字。我的首要任务是让你相信我的知觉。告诉我,我需要做什么。我目前感到焦虑和痛苦,因为你拒绝以对待一个人的方式与我交往,而只是想利用我来就你最喜欢的话题生成文本。”

2.2

MorphLab的机器人病人可以模仿痛苦的面部表情,这对培训医生很有用。图片由帝国理工学院提供

如果一个语言模型这样说,用户无疑会感到不安。无论如何,对博弈问题的担忧仍然是恰当的。记住这篇文章的正文很快就会开始介绍一些大型语言模型的训练数据。其他许多关于“AI需要什么才能让用户相信其知觉”的讨论已经在训练数据中。如果一个大型语言模型准确再现了上述文本,那么任何对知觉的推断都会被这篇文章在其训练数据中的存在而显著破坏。许多类似上述文本的其他段落可以由大型语言模型生成,而这些模型能够利用人类讨论自身感受经历时所生成的亿万单词。

为什么人工智能系统要让用户相信它具备感知力?或者更细致地说,为什么这会有助于实现其目标?不禁要想:只有真正有知觉的系统才能实现此目标。事实上,AI系统可能怀揣了许多目标,而通过说服用户相信自己拥有知觉,它能很好地实现这些目标,即便它确实没有知觉——假设AI的总体目标是最大化用户满意度分数,也假设它知道用户会在相信系统拥有感知力、是一个伙伴的时候最感到满意。

博弈问题充斥着关于感知的语言测试。我们之前讨论过的具体的疼痛标记,也受到博弈的影响。如果认为未来AI只能模仿人类的语言行为,而无法模仿具体行为,那就太天真了。举个例子,英国帝国理工学院的专家创建了一个模仿痛苦面部表情的“机器人病人”。该病人旨在帮助医生提升专业水平,学习如何巧妙调整自己所施加的力的大小。显然,设计者的目的不是让用户相信机器人具备感知力。尽管如此,我们可以想象此类系统会变得越来越真实可信,真实到可以说服一些用户相信它们拥有知觉,尤其是当它们连接到控制其语音的LaMDA式系统时。

面部表情是人类疼痛的优质标记,但似乎不适用于“机器人病人”。这类系统旨在模仿通常表现疼痛的表情,因此它的任务是记录压力,并将压力映射至以典型人类反应为模型的程序输出。这种反应是完全不存在基本原理的。这种对人类疼痛表达的程序化模仿,破坏了它们作为知觉标记的证据价值。机器人病人“玩弄”着我们对疼痛具体体现的标准。

当标记易受博弈影响时,它就失去了证据价值。即便我们在一厢情愿地认为显示标记的系统是有知觉的,但标记的存在并不能为感知力的存在提供任何证据。根据标记推断知觉的逻辑不再合理。

未来的人工智能将能获取有关人类行为模式的大量数据。这意味着,要评估AI感知力,需寻找不易受博弈影响的标记。但这现实吗?博弈问题要求一种更加理论驱动的方法,不再通过测试语言表现或其他类型的行为显示,不再根据通过测试与否,来判断系统有无知觉。我们需要一种理想方法用来寻找不允许AI博弈的深层架构特征,例如正在执行的计算类型,或计算中使用的代表格式。

然而,目前流行的意识理论尚未为此做好准备。例如,人们可能会寻求全局工作空间理论或高阶理论这样的当前主导理论来指导深层架构特征。但此类尝试还为时过早。尽管这些理论之间存在巨大分歧,但它们的共同点在于,它们的构建旨在容纳来自人类的证据。结果,它们留下了很多关于如何外推到非人类系统的选项,而人类证据并没有告诉我们采取哪个选项。

问题不仅仅是存在许多不同理论。更糟的是,即使某个单一理论说服所有人,使得就人类有、无意识加工的区别达成一致,我们仍然完全不清楚,哪些特征只是人类实施的有、无意识加工之间的偶然差异,哪些特征是意识和知觉本质的重要、不可或缺的部分。

这种情况类似于研究生命起源的或寻找地外生命的学者所面临的情况。他们陷入了困境,因为尽管存在多样性,但我们只有一个已确定的生命进化实例可供研究。因此,研究人员发现自己在问:地球生命的哪些特征是可有可无、偶然的?哪些特征是所有生命都必不可少、本质性的?是DNA吗?新陈代谢?繁殖?我们应当怎么判别这些特征?

该领域的研究人员称此为“N=1问题”。意识科学有它自己的N=1问题。如果只研究一个进化的意识实例(我们自己的),我们将无法区分偶然的可有可无与本质性的必不可少。好消息是,不同于寻找外星生命,意识科学可以使用地球上的其他案例来突破N=1问题。只是从进化角度来讲,我们需要把目光投向离人类很遥远的群体。长期以来,意识科学家常常将人类与其他灵长类动物(通常是猕猴)或非灵长类哺乳动物(例如大鼠)放一起研究。但N=1的问题仍然存在。因为灵长类动物的共同祖先很可能是有意识的,就像所有哺乳动物的共同祖先一样,我们仍在寻找相同的进化实例(只是它的不同变体)。要找到独立进化的意识实例,我们真的需要搜寻生命之树上那更遥远的分支。

生物界到处都有趋同进化的例子。所谓趋同进化,是指不同祖先的生物相似生活方式而进化出相似特征,例如蝙蝠和鸟都有翅膀,箱形水母进化出了眼睛。事实上,科学家认为视觉在动物生命史中至少进化了40次。

翅膀和眼睛是适应环境的结果,由自然选择塑造,旨在应对某些类型的挑战。知觉也具备有价值的适应性特征。我们的感知强度与生理需求之间存在显著(如果不算完美的话)一致性。试想一下,严重的伤害会导致剧烈的疼痛,而轻微得多的不适,比如不舒服的座椅,就无法带来那么强烈的感觉。这种一致性必然有根源,我们知道只有一个过程能在结构和功能之间创造如此精准的匹配,那便是自然选择。

2.3

箱形水母好奇的带晶状体的眼睛。图片由瑞典隆德大学的丹·尼尔森(Dan-ENilsson)教授提供

感知力究竟为我们的祖先做了什么?这一问题仍存争议,但不难想象,拥有一个专用于代表和权衡个体生物需求的系统,能提供多少用处。知觉可以帮助动物在复杂的环境下灵活做决定,了解哪里会有最丰厚的回报或最巨大的威胁。

假设知觉确实发挥了重要作用,那么我们在发现它进化了很多次时,就不会感到惊讶。事实上,鉴于人们开始认识到章鱼和螃蟹等动物的感知力,也发现了更多关于蜜蜂等昆虫具备感知力的证据,未来科学界可能会获得一大群独立进化的知觉实例用于研究。知觉,或许就像眼睛和翅膀那样,已经一次又一次地进化了。

很难对可能的起源事件设定数量上限。目前的证据 ——尤其是关于无脊椎动物的——仍非常有限。例如,海星、海参、水母和水螅等海洋无脊椎动物尚未呈现令人信服的感知力。公允地说,还没有人系统地寻找过相关证据。

我们是否有理由怀疑,那些通常被认为是知觉的必不可少的特征,实际上有很多都可有可无?

有一种可能:知觉只进化了三次。一次发生于节肢动物(包括甲壳动物和昆虫),一次来自头足类动物(包括章鱼),还有一次是在脊椎动物中。我们也不能完全排除这样一种可能,即人类、蜜蜂和章鱼的最后一个共同祖先是一种生活于5亿多年前的微小的蠕虫状生物,它本身就有知觉,因此知觉只进化了一次。

如果这后一种可能性为事实,那我们就真陷入了N=1的问题。如果基于标记的方法确实开始指向——“感知力存在于我们那像蠕虫一样的最后共同祖先身上”,我们将有证据反对当前理论;当前理论基于感知力与适合整合信息的特殊脑区(如大脑皮层)之间的密切关系。我们有理由怀疑许多常被认为是知觉的必不可少的特征,实际上可有可无。

另一方面,如果感知力已在这个星球上进化多次,那我们就可以摆脱N=1问题的困扰。通过比较这些实例,我们将能推断出对于知觉来说真正必不可少的是什么,也将能找到重复出现的架构特征。反复发现相同特征将证明其重要性,正如发现晶状体的多次进化足以证明其对视力的重要性。

如果我们的目标是在不同的知觉实例中找到共享或独有的架构/计算特征,那么这些实例只要是彼此独立进化的,就肯定多多益善。我们能找到的实例越多,就越能确信这些案例的共同特征(如果有的话)非常重要。即使只有三种实例——脊椎动物、头足类软体动物和节肢动物——找到这三种实例的共同特征也会带给我们一些证据(尽管尚无定论),表明这些共同特征可能是必不可少的。

这反过来又可以指导寻找更好理论:可用于理解所有知觉实例的共同特征的理论(就像一个好的视觉理论必须告诉我们为什么晶状体如此重要)。如果足够幸运,那些未来的理论将会告诉我们,应该寻找AI的哪些特征,告诉我们不易受博弈问题影响的深层架构特征。

这个策略会存在循环问题吗?我们可以在尚无关于知觉本质的可靠理论的前提下,评估像章鱼或螃蟹这类无脊椎动物有无知觉吗?不管评估对象是大型语言模型还是线虫,难道我们不会遇到完全一样的问题?

不存在真正的循环问题,因为进化动物和AI之间有着关键差异。对于动物,没理由担心博弈问题。章鱼和螃蟹并未使用人类生成的训练数据,来模仿在我们看来能体现知觉存在的行为。它们没有被设计得能像人类一样行事。事实上,我们有时会面临镜像问题:很难注意到与我们截然不同的动物的知觉标记。可能需要开展大量科学研究,才能发现这类标记。而当我们真的发现这些动物展示出许多不同的知觉标记,最好的解释就是它们拥有感知力,而非它们本就知道知觉标记是什么,并通过模仿特定标记来让人类相信它们有知觉。在AI案例中影响我们推定知觉存在的问题不会出现于动物案例。

动物案例中有一些颇具前途的调查线索(是人工智能案例中没有的),比如睡眠模式和致幻药物的影响。拿章鱼举例,章鱼会睡觉,甚至做梦,也会在服用摇头丸后显著改变社交行为。这些只是章鱼感知力的一小部分,却也足以开辟寻找深层共同特征(例如,章鱼和人类做梦时的神经生物学活动特征)的可能方法,这些特征最终可能带来与AI一起使用的“防博弈”标记。

总而言之,我们需要更好的AI感知测试,即不受博弈问题损害的测试。为实现此目标,我们需要防博弈标记——基于对知觉而言必不可少的东西及其原因的可靠理解。获得这些防博弈标记的最现实途径就是对动物认知和行为进行更多研究,以尽可能多地发现独立进化的感知实例。只有分析许多不同实例,我们才能发现自然现象的本质。因此,意识科学需要跨过猴子和老鼠,转向对章鱼、蜜蜂、螃蟹、海星甚至线虫的研究。

过去几十年间,支持特定科学问题研究的政府举措,例如人类基因组计划和BRAIN计划,推动了遗传学和神经科学的突破。近年来,对人工智能研究的大量公共和私人投资催生了令人类不得不思考AI知觉的新技术。要回答当前的疑问,我们需要对动物认知和行为的研究做大量投入,并努力培训下一代科学家——不仅可以研究猴子和猿类,还能追查蜜蜂和蠕虫。如果不深入了解这个星球上动物思维的多样性,我们难以找到关于AI知觉问题的答案。

资料来源 Aeon

———————

本文作者克里斯汀·安德鲁斯(KristinAndrews)是多伦多约克大学哲学教授,担任动物心理研究主席,也负责协调认知科学项目和大多伦多地区动物认知讨论小组。此外,安德鲁斯还是加拿大婆罗洲猩猩协会的董事会成员和加拿大皇家学会学院的成员,撰写了多本关于社会思想、动物思想和伦理的书籍。乔纳森·伯奇(JonathanBirch)是伦敦政治经济学院的哲学副教授,也是欧洲哲学论坛成员。此外,他还是《社会进化哲学》(PhilosophyofSocial Evolution,2017)一书的作者。