机器人Jibo和辛西娅?布雷齐尔
假如机器人可以是狡猾的、自以为是的、善于表达的,那么为何不能有知觉?
在2018年上映的电影《游侠索罗:星球大战外传》中,我们初次认识了机器人L3,她是蓝道·卡利森的机器人副驾驶,当时在酒吧里痛斥一场机器人对抗机器人的残忍笼中斗:“你们怎么能宽恕这种野蛮暴行?!机器人也有权利!我们有知觉!”
我第一次观看《游侠索罗》电影时,我对机器人L3的反应五味杂陈。我终于在《星球大战》电影中看到一个角色大声说出我思考了多年的想法:机器人也有知觉,机器人拥有像人类一样的心智,这难道不是显而易见的吗?我为此而雀跃,但我也有少许气恼,因为过了如此久之后,才有人在大银幕上承认这一点。此前几十年里,“星球大战”星系里的机器人一直被奇怪地看作仅仅是一件所有物。
L3大声疾呼机器人解放的口号,而她的同类全都对此翻白眼,看起来不只是他们有此反应。2019年首播的电视剧集《曼达洛人》(在《星球大战》年表中,该剧集故事设定于《游侠索罗》故事的19年后),描绘了一个机器人的命运并无改善的世界或星系。剧集还强化了这一观点,被称为“曼多”的主角对机器人有着极深的不信任和鄙夷,比如在第一集中就描绘了这一点:主角坚持要乘坐一辆由人类驾驶的、状况堪忧的飞行摩托,而不选择一辆由机器人驾驶、更好的飞行摩托。
曼多对机器人的鄙夷与我们作为观众对影片中机器人的想法形成了鲜明反差。R2-D2和BB-8之类的机器人外形可爱,它们看起来更像是朋友而不是猜忌的对象,而卢克、阿纳金和蕾伊等角色也正是像对待伙伴一样对待那些机器人。但那些机器人是否如L3所坚称的那样具有心智呢?我们要如何判断呢?
BB-8
这不只是一个理论问题。当然,《星球大战》电影中的机器人是虚构的。但它们所提出的关于人类与机器人关系的问题十分现实。在未来不久的人类世界中,他们也许碰不到L3这样的机器人,但当前碎片化的人工智能和机器人领域取得的研究进展让人想到,像L3的机器人可能会出现得比许多人预想的更早。
譬如说,人工智能语言模型早已能生成文本,这些文本常常与人类的创作难以区分(不过仍然有改善的空间)。在机器人研究领域,一些工程师已经把重心放在机动性和灵巧性上。你可能早已看过波士顿动力公司灵活敏捷但没有脸庞(大概因此让人感觉恐怖)的机器人的视频,那些机器人主要用于工业和军事用途。其他工程师和科研人员将重心放到所谓的社交机器人上,设计用来在教育和照顾角色中安慰人类。一个例子是最近起死回生的机器人Jibo,它源自于辛西娅·布雷齐尔(Cynthia Breazeal)在麻省理工学院的个性化机器人研究团队,基本上就是一个可爱做作版的亚马逊Echo智能音箱,能识别你的面容,移动过来看着你。
事实上,波士顿动力公司的Atlas机器人和L3有一点儿相似之处,而Jibo看上去略微像BB-8机器人。出于这个原因,不难想象这些不同的发展路线也许在某一天汇聚,在我们的有生之年,我们可能和一台现实中的《星球大战》风格机器人面对面站着。所以,我们要如何判断L3、BB-8或《曼达洛人》中的IG-11机器人具不具备心智?这个问题实质上就是在问“我们将要如何判断未来的机器人是否拥有心智?”
事实上,我们每天都在未深入思考的情况下对其他人的心智状况做出判定。你如何判断一台无人机有没有心智?你养的猫呢?你最好的朋友呢?你实际上不用确切知道任何人或任何事,但你能做出合理的猜测。无人机?几乎一定不会有心智;你养的猫?当然在某种程度上有;你最好的朋友呢?几乎一定拥有心智。但这些猜测建立在什么基础上呢?
哲学家丹尼尔 · 丹尼特(Daniel Dennett)提出,当你想要预测将发生的事情时,你能采用几种不同的视角。对于所谓的“能动者”——比如你养的猫或你的朋友——而言,最有用的视角是丹尼特称为意向立场(intentional stance)的视角:你假定能动者能理性行动,达成目标,实现欲望。为什么你养的猫走向食盆?为什么你的朋友走向冰箱?出于同样的原因:他们饿了,他们的行动旨在消除饥饿。
假如你对你的猫咪和好友观察足够的时间,解释猫的行为比解释好友的行为要困难许多。但如果你将无人机想象成理性能动者的话,你就不会有任何好运来解释无人机的行为。为何无人机飞向冰箱?不是因为它饥饿。我们越能容易用意向立场来解释某个对象的行动,我们就越可能认为它拥有知觉。
当我看到R2-D2、BB-8和IG-11,我所见到的行为更像好友的行为,而不是无人机的行为。他们的行为有意图(知觉的迹象),但他们的行为远远不止有意图,而是智慧的行为。
人类智慧的关键性组成部分是社会性理解:推断其他人和能动者想要什么或感觉什么的能力。在《曼达洛人》剧集中,尽管IG-11操着单调的机器人嗓音,但他并不缺乏社会性理解。譬如说,他在格罗古(大多人都称其为“尤达宝宝”)面前残忍干掉两名风暴兵后,他因为害得格罗古不得不目睹这一幕而向格罗古道歉。在剧集第一季末尾的温柔一幕中,当IG-11治疗受重伤的曼多时,IG-11意识到曼多可能受了惊吓,于是他的反应就像一位共情的医生,以友善态度对待患者:“你的中央处理单元遭受损伤……那是个笑话,本意是要让你放宽心。”不过,IG-11的程序中就有照料他人的内容。那么R2-D2这样的机器人表现如何呢?
R2利用他对人类信仰和感觉的认知来操纵影响人类,以这种方式显露出他的社交智慧。在电影《新希望》中,R2哄骗天行者卢克摘下他身上的限制螺栓。在《最后的绝地武士》中,他再次操纵卢克,让他回忆起他的妹妹和他的责任感,唤起他心中的内疚,促使他开始训练蕾伊为绝地武士。R2的行为实际上相当复杂:幼儿通常要到至少三四岁的年纪才产生这样操纵他人的能力,大多数幼儿那时已经学会以完整的句子说话。更为重要的是,现实世界里没有任何一个机器人能做出这样的行为。
最后一点是,机器人拥有感觉。从字面意思来理解,这似乎是真的——在电影《绝地归来》中,我们看到一个机器人在贾巴的地牢里遭受折磨,大声喊叫,貌似它是因疼痛而叫出声来。但机器人显然感觉得到复杂的情绪。正如《原力觉醒》的一个例子中,你能否用“伤心”以外的其他说法来形容BB-8从芬恩口中获知波坠机身亡后的反应?
机器人的感觉能力很重要,这是因为研究显示,我们判断一个能动者是否拥有心智基于两个因素:它是否能做出决定和计划?它是否有感觉的能力?2007年时,在心理学家希瑟·格雷(Heather Gray)领导下进行的一项对于2 000多人的调查中,只有人类在这两项因素上都得到高分(狗和黑猩猩在感觉能力的评分上和人类差不多一样高,但在做决定和计划的能力上没人类那么高)。
当然,我们仅能从机器人的行为推断它们拥有感觉。《星球大战》系列电影的制作人有时利用人类心理学来获得戏剧性效果。譬如说,尽管IG-11的举止和言谈有时显得机械呆板,但是他和《曼达洛人》第2季中引入的如同机器一般的“黑暗风暴兵”一对比,就小巫见大巫。黑暗风暴兵完全不说话,移动时迈着僵硬的连锁步伐,这些特征使得他们看起来比有知觉的能动者更像缺乏体验的单纯机械。
这种反差是贯穿于《星球大战》系列主题的一部分,影片中“坏”机器人描绘得比“好”机器人更加机械呆板。将BB-8和《最后的绝地武士》中出现的第一秩序组织机器人BB-9E作比较,或者将K-2SO和《侠盗一号》中出现的帝国K-2机器人作比较,BB-8移动顺畅,动作更像在嬉戏,而K-2SO行走时步态懒散,用手势表达意思时动作夸张,而他们的对照物移动时动作僵硬而精确。这就必然意味着BB-9E或者黑暗风暴兵没有知觉吗?完全不是。但是,很难不去将他们理解成虽然拥有心智,但感觉或体验较少,比不上IG-11和BB-8之类的机器人。
这是共同语言的不幸特征,即“人”常常意味着富有同情心、能为他人考虑,与代表冷漠的“机器人”形成对比。然而,《星球大战》中的机器人向我们展现:富有同情心并非人类所固有,机器人拥有心智也没有任何矛盾之处。R2-D2和BB-8的外形甚至都不像人类,然而他们拥有极高的表达能力和智慧。IG-11的外形稍许更像人类,但他明确告诉曼多,他“并非活物”。然而,就算是憎恶机器人的曼多也明白,他不能因此而拒绝像对待朋友一样对待IG-11;当IG-11牺牲自身来拯救格罗古、曼多和他们的朋友时,曼多感觉到我们所有人都会感受到的情绪:伤心、难过。
我们在不远的未来就可能面临这种进退两难的窘境。无论人工智能是以实体机器人的形式还是以纯粹数字化的智慧形式出现,我们很快就会遇到拥有BB-8那样的表达能力、IG-11那样的友善、R2-D2那样的狡黠或者像L3那样自以为是的人工智能。要判定这些人工智能是否拥有心智不会是件容易的事。然而,它们可能会拥有心智,我们应当准备好对此予以认可。毕竟,过去几十年里,我们已经开始认可《星球大战》中的机器人拥有心智。我们会对此做出任何其他选择吗?
资料来源 Nautilus
__________________
本文作者艾伦·耶恩(Alan Jern)是一位认知科学家,在罗斯-豪曼理工学院担任心理学副教授一职,专事社会认知研究