AI会带来许多奇迹,它也可能打破从核缓和到人类友谊的所有一切的稳定。我们需要更用心思考如何适应AI时代。

人类濒临一场由人工智能驱动的革命。它有可能成为历史上最重大和深远的革命之一,但其发展是人类为解决具体实际难题的不同努力,而不是出自于周详的计划。讽刺的是,这种逐个解决问题的终极努力也许是人类推理和决策的转变。

这场革命不可阻挡。企图停止这场革命意味着:把未来交给面对革命的创造性的意义时更勇敢的人。相反,我们应该接受:AI一定会变得越来越复杂和普遍,并且我们应该自问:AI的进化会如何影响人类的感知、认知和互动?AI会对人类文化和历史造成什么影响?

这些问题将本文的3位作者聚到一起。其中一位是历史学家,有时担任政策制定者;一位是大型科技企业的前首席执行官;还有一位是科技导向的学术机构的院长。我们在过去3年里不时见面,试图弄懂这些问题和相关的难点。我们每个人都相信有能力(在自己的专业领域)充分分析这样的未来,即机器帮助引导其自身的变革,通过自我改善来更好解决问题(这就是设计这些机器的目的)。于是,作为一个起点(我们也希望,这是引发更广泛讨论的跳板),我们形成了一组有关AI发展对人类文明重要意义的详细问题。

AlphaZero悖论

2018年12月,AlphaZero的开发者发表了他们对于这款棋类程序过程的解释。结果显示,这个过程忽略了几个世纪以来人类发展的棋类策略和过往的经典棋局。在掌握棋类规则后,AlphaZero就完全通过自我对弈来训练自己,在不到24小时内成为全世界最出色的棋手,比特级大师更厉害,在当时是全世界最复杂的棋类博弈程序。它的构想和实际招式让人类和人类训练的机器都觉得反直觉,甚至可能被认为是下错了棋。创造出AlphaZero的公司的创立人称它的表现是“另一维度的棋类”,证明复杂的AI“不再受到人类知识的局限的桎梏”。

现在,卓有建树的棋类专家正在研究AlphaZero的棋招,希望将它的领悟融入他们自己的棋局。这些研究具有实际意义,但也随之出现更宏大的哲学问题。有些是目前尚回答不了的问题:我们如何解释AlphaZero在极短的时间创造出新方法的能力?它探索的现实是什么?AI会导致对熟悉的现实的难以想象的扩展吗?

我们能够预期AI在其他领域的相似发现。有些发现会颠覆传统智慧和标准实践;其他发现会对传统智慧和标准实践进行调整。几乎所有发现都会让我们难以理解。考虑一下无人驾驶汽车在红绿灯前停下的行为。当人类驾驶的汽车一点一点地往前挪,试图摆脱堵塞的车流时,一些无人驾驶汽车偶尔也会加入其中,尽管它们接受的驾驶规则中没有暗示它们应当这么做。假如这种一点一点往前挪的做法被无人驾驶汽车学会,那么它们是如何学到的?又是为了什么目的?这些做法和我们教育人们要等候红绿灯有什么不同?AI还可能学到的其他内容是什么?AI没有“告诉”我们,因为AI没有解释或不能解释。使无生命的物体拥有自我学习的过程,我们尚不知道我们启动了什么,但我们需要去查明。

革命的本质

迄今为止,数字革命依赖于人类创造软件和分析深刻影响我们生活的数据。近期的进展已经重塑这个过程。AI使众多工作的自动化成为可能,使机器从数据中得出结论并采取行动方面发挥重要作用(日益成为决定角色)。AI能够从自身经验中汲取教训和经验,不像传统软件只支持人类的推理。作出判断的任务不断从人类转移到机器,这标志了AI革命的一方面。

“智慧”这个词并不足以解释正在发生的事,将人类特质赋予AI是不适宜的。AI既没有恶意也不友善,它没有自主发展的意图或者目标,也不能进行自我反思。AI所能做的,是完成具体指明的任务,帮助发现数据与行动之间的关联,为人类觉得困难或不能解决的困境提供解决方案。这个过程创造出新的自动化形式,不久可能出现新的思考方式。

然而,今日的AI系统在努力教授或解释:它们如何得出解决方案的,那些解决方案为何更优秀。该由人类来破解AI系统的重要意义和形成一套诠释。在某些方面,AI可以和古时的德尔斐神谕相类比,需要人类解读神谕中关于人类命运的神秘信息。

假如AI不断完善(没有理由认为事情不会如此),人工智能对人类生活施加的变化会是变革性的。以下是两个例证:一个是来自全球安全和国家安全领域的宏观例子,另一个是和AI在人类关系中的潜在角色有关的微观例子。

人工智能:大战略和安全

在核时代,国家战略的发展围绕着威慑(deterrence)概念。威慑是基于各方的理性,其前提是核武器和其他军事部署能确保稳定,蓄意行动会导致自我毁灭,报复的可能性遏制了攻击。具有监测系统的军备控制协议主要是为了避免来自流氓国家的挑战,或者可能触发灾难性反应的错误信号。

AI在国家安全中扮演重要角色的世界里,这些战略理论几乎没有用武之地。假如AI通过仿真和其他秘密手段研发出新武器、战略和策略,控制就算是可能实现,也变得难以描述。基于公开的军备控制承诺将会改变:对手对AI开发配置的无知会成为战略优势,但在国家能力的透明度作为先决条件的谈判桌上,这个优势会成为牺牲品。网络世界的不透明(及速度)可能推翻当前的规划模式。

军备控制制度的演变教育我们:大战略需要了解潜在对手的能力和军事部署。但是,如果越来越多的情报变得晦暗不清,决策者如何了解对手(或者甚至是盟友)的观点和能力呢?会出现许多互联网吗?或者到最后只存在一个互联网?合作的含义是什么?为了对抗吗?随着AI变得无处不在,需要出现新的安全观念。新观念之一是有切断AI工作网络的能力。

更尖锐(可能更令人忧心)的问题日益突出。威力未知的武器的存在到底是增加还是降低未来冲突的可能性?面对未知的因素,恐惧是否会增加先发制人的可能?其动机将是不透明,这可能意味着绝对不安全。在这些情势下,指导和遏制战略的规范和规则要如何建立?发展与这项不可避免的新技术相关的战略概念的必要性已经变得势不可挡。

人际接触

“谷歌人家”(Google Home)和亚马逊公司的Alexa这些电子助手已经进入数百万个家庭,设计主旨是用于日常对话。它们能回答各种询问和提供建议,这些建议(尤其是在小孩看来)也许很聪明,甚至是睿智的。它们能成为老年人长时间孤独的解决方案,其中许多人像对待朋友一样与这些设备互动。

AI收集和分析的数据越多,它就变得越准确,这样的手段会获知其主人的喜好,在答案形成过程中将这些纳入其中。随着它们变得“更机智”,它们会变成更亲密的伴侣。结果就是,AI能诱导人类对AI的感情,而AI无法回报这些感情。

人们早已将他们的智能手机列为最重要的财物,并给清扫机器人起名字。当这些设备变得更加复杂时,会发生什么事?人们会变得像对待宠物犬一样依恋于这些电子宠物吗(或许更严重)?

社会将以与社会文化最合拍的方式来采用这些设备,这在某些情况下加强了文化差异。譬如说,在日本,作为人口老化和神道主义(神道主义认为,无生命物体拥有与人类别无二致的灵魂)的结果,AI伴侣可能变得比西方国家更广泛。

考虑到这些发展,在世界许多地区,从幼童时期起,首要的互动和知识来源可能将不再是父母、家庭成员、朋友或老师,而是电子伴侣;与它们的不断互动会形成丰富的学习源泉和对隐私的挑战。AI算法会帮助开启知识的新疆域;与此同时,会缩小信息选择范围,提升压制新的或挑战性想法的能力。AI能够去除语言障碍和许多文化限制,但相同的技术会创造出限制或塑造信息扩散的空前能力。政府监控数千万人或数亿人的行为和行动的技术能力同样空前。就算在西方国家,这个以和谐名义的探求可能变成一条危险的下坡路。对越轨行为风险和个人自由限制的平衡(或定义“越轨”一词)将是AI时代的关键挑战。

未 来

AI的许多公开预测有科幻文学的特征。但在现实世界中,仍存在许多希望的趋势。AI会在健康、安全和长寿等关键领域做出基本的积极贡献。

然而,仍存在令人担忧的冲击领域:随着人类将越来越多的探求知识的任务托付给AI,人类的好奇心变小了;因为以假乱真的新闻和视频,人们的信任变小了;为恐怖主义开拓了新的可能;由于AI的操纵,民主体制弱化了;或许还因为自动化,人类找到工作的机会减少了。

随着AI变得无处不在,要如何管理和监督?随着我们进入AI教育人类的新世界,会不会出现等同于“已批准”教科书的AI呢?

在现存文化的价值观和实践中,吸收AI这项新技术是个挑战,而且没有先例可循。最适合比较的历史事件是人类社会从中世纪到近代的转变。在中世纪,人们将宇宙解读为神的创造,所有宇宙现象都解读为神的意旨的体现。当基督教会的统一被打破后,出现了有什么统一观念能取代它的问题。答案最终出现在我们称为“启蒙时代“的时期;伟大哲学家将神性的启发(divine inspiration)换成了理性、实验和实用主义。其他诠释接踵而来:历史哲学、现实的社会学诠释等。然而,如下的现象在人类历史上是独一无二的,即机器在智力劳动中协助(或者可能超越)人类,帮助人类预测和塑造结果。启蒙时代的哲学家康德将真理归因于人类心智对观察现实的结构影响。AI的真理更具有偶然性和模糊性;它在获取和分析数据时修改自身。

AI将对我们对真理和现实的理解施加不可避免的演变,我们应当如何应对?我们3人讨论过许多观点:给电子助手编程,让它们拒绝回答哲学问题,尤其是关于现实界限的问题;要求人类参与事关重大的模式识别工作,譬如读X光片的工作;研发模拟程序,使AI能在各种不同情况下,练习如何为模棱两可的人类价值观下定义:什么是道德的?什么是理性的?什么是不作恶?“审核”AI,并在不准确模仿人类价值观时加以纠正;建立“AI伦理学”这个新领域,促进思考如何对AI的管理负责,正如生物伦理学促进思考对生物学和医学管理的责任。重要的是,所有这些努力必须根据三种时间范畴来进行:我们已经知道什么;不久的未来我们一定会发现什么;当AI变得广泛时,我们很可能会发现什么。

对于AI的乐观程度,我们三人存在意见分歧。但我们都同意:AI正在改变人类的知识、观念和现实,这么做的时候,也改变了人类历史的进程。我们试图弄懂AI和它的后果,也鼓励跨学科的其他学者做相同研究。

资料来源The Atlantic

_____________________

本文作者亨利·基辛格(Henry A. Kissinger)在尼克松和福特总统时期担任国家安全顾问和国务卿;埃瑞克·施密特(Eric Schmidt)是Alphabet 公司的前CEO 和董事长;丹尼尔·胡滕洛赫尔(Daniel Huttenlocher)是康奈尔科技校区(Cornell Tech)的创立人、前院长,目前是麻省理工学院施瓦茨曼计算学院的院长。