经过三十年艰苦的工作以后,人工智能正成熟起来,正从实验室走向市场。专家系统,即能够像人类的专家一样给出建议的计算机程序,已经能够确定矿藏位置,为病人诊断。程序已经可以做到相当灵巧地理解通俗的英语或法语。机器人不久就可以借助于计算机视觉系统,把一个物体或场面的数字化照片储存起来,还可以相当准确地“认出”照片上有些什么。
照那些热情的乐观主义者看来,我们不久就可以有那样的机器,能够为我们的所得税和小孩发烧之类的事提出建议;电子教师会帮助儿童掌握几何学和算术;卡车在夜间也会自动行驶,到达目的地甶行卸货。一句话,我们总有一天会有能够作出现在需要人类“智能”的几乎所有事情。
很多人工智能研究者发现这种论调为时过了一些。他们认为,人工智能之能够有商业性,并不是因为有了什么根本性突破,而是因为现在容易得到风险资本。他们深知有些许诺离开实现实际上还有多远。在赛劳克斯公司(Xerox)的巴罗阿多研究中心工作的约翰 · 布郎(J. S. Brown)说:“你务必要分清什么是科学,什么是吹牛。”
除了言过其实以外,这些鼓吹人工智能即将成功的人常常说得文不对题。实质上,人工智能并不是要创造灵巧的计算机。计算机只是一种工具,是检验观点的实验手段。而人工智能本身是关于某种更有趣的东西:智能、精神、思维的本质。在我们的脑袋里到底是些什么?我们到底是怎样思维的?
进行人工智能的研究有点儿像物理学和数学中的解题。先是将一组关于精神的抽象推测编成计算机程序(相当于立出方程);然后让程序上机运算(相当于解方程)。如果程序运算良好,那么你的推测就与现实有几分接近。反之则重新再来。因为一切东西,直至最微小的细节,都向计算机交代清楚,所以这种方法总是把模糊的思想剔除掉。
但是这样一来它也改变了人工智能研究者关于精神所思考的整个方式。他们谈论的不再是一种抽象的、超脱的智力,而是一种机械的、有限的精神。自然语言程序方面的一位开拓者,耶鲁大学的罗杰 · 斯康克(Roger Scbank)说:“这可以用一个词来概括。那就是‘过程’。先看看步骤是什么,输入是什么,然后给一个算法,从A点走到B点。”
人们在四十年代后期就开始写出类似人工智能的程序,当时可以使用这种程序的计算机刚刚产生;到五十年代中期,人工智能已经作为一个独立的研究领域而出现。很快地,人工智能开拓者们发现,我们的很多“高级”精神能力是可以轻易地在计算机上模拟的。例如,早期有一个人工智能程序叫Logic Theorist(逻辑理论家),这是卡内奇 - 梅隆大学的阿兰 · 内维尔(Alien Newell)与西蒙(Herbert Simon)和兰德公司的克利福德 · 肖(Clifford Shaw)在五十年代中期写的。Logic Theorist能够证明数理逻辑中的定理。事实上,有一个它作出的证明比标准教科书中的证明更为简捷。
十年以后,人工智能研究者开始认识到,单凭几条基本规则和一些初级推理能力,他们在模仿“专家”行为方面到底能够走多远。内维尔和西蒙又一次鼓舞了人心。六十年代末,他们指出,人类的很多知识都可以用简单的“如果 - 则”规则来表示。例如,“如果它看上去像一只鸭子,走起路来像一只鸭子,叫起来像一只鸭子,那么它可能是一只鸭子。”或者,“如果它是一只老虎,如果看上去它正饿着,如果它刚好挡着你的路,那么赶快逃跑。”
尽管这样的表示显然是很有限的——我们是在一种远为深刻的意义上认识朋友和家人,仅用“如果 - 则”的规则是表达不出的——但内维尔与西蒙的方法确实成功地用于捕捉一些专业化的知识,比如模拟医生诊断病人。
这一成果是六十年代末到七十年代中期兴起的所谓专家系统的研究结果之一,这种研究大多是从费根鲍姆(Edward Feigenbaum)的工作发端的。他们的最重要成果之一是专家系统Mycin,能够像人类专家一样好地诊断传染病。
以后,其他研究室也建立了类似的系统,如Internist-1(内科医生 - 1),诊断内科疾病的程序;Prospector,(勘探者),石油地质学家的专家系统这是能够解释肺部检查结果的程序。发展的速度越来越快,因为这种有用的专家系统能够对商业利益负责。
但是,有一个事实却使人感到难堪。上述这种看来很复杂的事常常可以相当容易地编成程序,而我们所做的普通的、日常性的事——走路,读信,安排到杂货店走一趟——却令人难以置信的困难。
为了说明这是什么意思,请试图写下一个小孩将三块积木叠成一个小塔时所做的一切——包括她怎样发现下一块积木,她怎样伸手,她的手所握持的位置,她怎样抓住积木,向哪个方向移动,等等。然后,试图说清她怎么知道下一步应该做些什么、
这一类事情会引起对人工智能的误解,因为证明定理的程序看上去令人印象深刻而叠积木则平淡无奇。当一个人工智能研究者向一个门外汉显示他最引为骄傲的成果,他花了多年心血的一个看上去简单的程序时,得到的反应常常是:“那又怎么样呢?”比如说,在六十年代末和七十年代初,麻省理工学院的人工智能小组确实研究过叠积木问题。模拟机器人臂能够操纵模拟的积木。为此所需要的程序集合定名为Blocks World(积木世界)。前前后后有几十个人在研究它。大学毕业生们为它写作论文,其中有些论文成为自然语言理解方面、规划论方面、计算机视觉方面的重要事件。到最后,专家系统可以像一个三岁小孩一样按要求叠积木。(为此必须告诉计算机,将积木叠成一个塔时,不可以把塔底的积木抽出来放到塔顶上去,等等。)
事实上,大多数人工智能系统真正引人注目的不是它们的灵巧,而是它们的能力有限。商业性专家系统都是一些白痴仆人。专家系统Mycin知道血液病的一切,然而对它的病人,对人类本身却一无所知。商业性自然语言系统“理解”语言的程度大致上和一条家狗理解“吃饭”、“散步”等命令一样。视觉系统还不能够认识人脸,机器人也还不会准备餐桌。
从某种角度看,我们日常的常识性能力之所以不同凡响是因为它涉及大量知识。现在这一代专家系统最多可以处理几千条规则而不至于慢得无法忍受,虽然更先进的计算机不久就可以有所加快。但是,一个奕祺大师看来要运用相当于大约50,000条规则的知识。我们人人都知道早晨怎样穿鞋,怎样过马路,叠积木时不可以抽下面的积木。我们知道成百万甚至成百亿的常识性事情,到底有多少条“规则”与之相应,我们只可以猜测了。
人工智能研究者很早就明白,知识是智能的关键元素,甚至比推理能力还重要。内维尔、西蒙、肖和他们的同事工作了多年,竭力完善General Problem Solver(—般问题解决者)系统,这是一个指望能够按一般规则对几乎任何种类的问题作出推理的程序系统,结果没有成功。因为你想到下棋时就必须懂得下棋,想到物理学问题时必须懂物理学,照费根鲍姆爱说的话:“知识就是力量。”
再也没有比理解自然语言更关键的知识了。语言不仅仅是词汇。在人类语言的表面结构下面,有着关于世界的庞杂知识,有着对于微细差别和前因后果的深切感受,有着对人生目的和信念的直觉洞察。
试想象“今晚你能跟我一起吃晚饭吗?”这句话。有时候它只是一个简单的邀请,在另一场合却可能表示热烈的爱情。
再试想象这样的问句,“你能把盐递过来吗?”若是机器人则可能回答:“是”。而这样简短的回答在人类之间却会令人不快。再想象这样的句子,“约翰打中了玛利,”这句话一下子就会把关于约翰、关于玛利、关于他们的关系,以及此后可能发生的事等等想法都引了出来。
机器如果要“理解”那渗透了人类生活的期望和直觉行为,就必须知道上述的一切事情。事实上,过去十年中人工智能的很多工作就是致力于把这类知识编码并且以机器可以使用的形式储存起来。
麻省理工学院的明斯基(Minsky)设计了一种方法,称为框架(frames),它看上去像一张问题表,将有关一个主题或一个概念的事实填在里面。一个框架也可以从另一框架中抽取信息。
但是这样的信息对于计算机理解事件的序列无济于事。所以罗杰 · 斯康克和他在耶鲁大学的同事建立了一种方法,称为剧本(scripts)。一个剧本就是日常生活场面中典型步骤的一个序列。斯康克还率先试图为人类的情绪,如情爱或抱负建立模型,而其他研究者正试图将我们对物理学或心理学的直觉认识编码。
可是,常识还不仅仅是一些知识。如果知识就是一切,那我们所要做的就是设法建造更大更快的计算机,让一大群大学生把更多的事实和规则输入机器,然后机器就变得更聪明了。但事实完全不是这样。事情发生在我们还不充分了解的精神深处,那是另一类不同的东西。
这几乎是神话般的。人们谈论着直觉、顿悟、灵感、格式塔——并非因为这些词眼说明了什么事情,而是由于它们抓住了对于我们至今还不了解的本能的、整体的那部分的感觉。
另一方面,也许精神的这一部分并不奥秘,只是一时尚未揭开。或许,对于我们的自知之明来说,我们几乎没有顾及真正发生在我们大脑中的事。
无疑这就是心理学家和神经科学家想告诉我们的事。就以在人行道上散步所涉及的能力为例子。除了平衡和协调配合这类事以外,你还必须注意你要走到哪儿去,还要在一大堆不断变换的运动、色彩、光线和阴影中把你认为有意义的事挑出来。
为此,你必须指挥眼睛视网膜上的大约一亿个感受细胞。视网膜上还有另外四层神经细胞;加在一起,整个系统在图像信息到达视觉神经以前每秒钟大约要进行相当于100亿次运算的活动。而且,一旦视觉信号到达大脑,大脑皮层要有十几个独立的视觉中心来处理信号。事实上,这样那样的视觉图像估计要涉及皮层的约60%。
十分幸运,你自己对此一无所知。你只是漫不经心地瞥了一眼大街,就认出了一个熟人。但是这样一个过程涉及了什么呢?尽管你的自觉意识并不知道这个过程,可事实上你把从大街上得到的视觉图像和你一生中所见所认识所记得的数以十万计的人、树、狗等等的图像作了比较。一旦发现了正确的图像,你又将此图像和熟人的名字、和你与之交往的经验、你的感受,你想与之交谈的事等等联起来了。这一切一下子涌入了你的自觉意识。
我们再回想一下另一种情况。你苦苦思索工作中的一个问题,突然,“啊哈!”——答案像闪电一样出现了。这是怎么产生的?
没有人知道。但是其中的一个很大部分——实际上也是人类解决一般问题的能力的一个很大部分——看来是一种突然从整体上认识事物的能力。西蒙和他在卡内奇 - 梅隆大学的同事已经用一系列实验证明,专家们极少运用逻辑或推理来解决问题,比如物理学问题。相反,他们好像只是看了一下问题,然后就说:“啊哈;这是一个能量守恒问题。”或者“啊哈!这是一个理想气体定律问题。”与那些艰难地寻找道路的新手不同,专家们好像已经储存好了适当的解题序列,需要用时都是现成的了。
人工智能研究者只是刚刚开始探索精神的这个必威在线网站首页网址 、整体的部分。他们已经编制了会学习的程序,至少在有限的意义上是会学习的。他们已经编制了能够“认出”东西或能够重新组织知识的程序。他们甚至编出了会分类的程序,这可能是整个事情的关键,因为归根到底,人们是通过分类来学习的,甚至通过分类来创造新思想。
这些程序没有一个能像人类那样做得随心所欲,轻松自如。这部分的是因为,根据定义,我们几乎不可能了解精神的无意识部分。所以也就很难知道程序所模拟的是什么,它们应该怎样构造。为了对此有所感受,你只要设法想出一个主意,然后说说看,这主意是从何而产生的。
但是,有一个同样重要的事实是,现在这一代计算机硬件不能适应需要。虽然信号在硅片中运动得比在神经细胞间更快,但是几乎所有现代计算机都还是在一个给定瞬间只能走一步,一步一步地磨问题。大脑之所以能够一下子认出东西,“啊哈”一声解出问题,因为它有成百万甚至成亿神经元在同时工作。
实际上,建造组织得更像大脑的计算机,这是人工智能研究的前沿。人们已把计算机设计成有一百万个处理器平行地工作。人工智能研究者正在设计新的方式,为这样的机器编制程序。反过来这一实践将教育我们以新的观点对待思维。
创造和操纵会思维的生命,这是神话的题材,机器会思维吗?它们真的是在思维吗?
有人回答说:何必问这个问题。如果机器能把活儿干得非常非常好,它真的会思维又有何妨?
又有人回答说:机器不会思维,因为思维和感觉太复杂了。即使有朝一日我们理解了主宰着精神的所有法则和原理,这也并不意味着我们就能够制它。理解了天体物理学并不就能造一个银河系出来。
然而还有人回答说:是的,机器总有一天会思维,但不是像我们—样思维。有些人或许会从哲学的角度争辩说,非人类的思维不是真正的思维。
麻省理工学院的计算机科学家巴佩特(Seymour Papert)在《精神风暴》一书中设想了二十世纪初反对“人工飞行”的类似论点。“我们可以想象怀疑派们说,‘你们数学家处理的是理想流体,而现实的大气足太以杂了,’或者是‘你们没符理由假设飞机和飞岛的工作原理相同,要知道鸟儿没有推进器,飞机也没羽毛。’但是这种批评的前提只是在很肤浅的意义上是对的:同一原理(即伯努利定律)被用于真实流体和理想流体,用于流过鸟羽的或铝翼的流体。”
这些都没有触及问题的核心。如果机器能造得会思维,那么也许我们就是机器。
大多数人不喜欢这种想法。他们会说,好吧,我们是机器,那只能是在这样的意义上:我们的骨骼、肌肉和血液服从物理学定律。我们的酶和DNA服从化学定律。我们脑壳里是一大团神经元。“但是我不是机器。我在这儿,我就是我。我是活的。”
这是对变得冰冷、粗暴、像机器一样的想法的反应。这种感情说出来就是:“计算机是逻辑的、推理的,你们可以模拟精神的这一部分。但是人还有直觉、感情、情绪,这是人性的本质,这是你们无法模拟的东西。”
可是麻省理工学院的计算机科学家马文 · 明斯基并不认为情绪比推理更神秘,更不可吉喻。他说:“这是我们文化中的一个错误观念,认为感觉和情绪是深刻的,而智能、我们的思维是容易理解的。”
伯克利的加利福尼亚大学的哲学家约翰 · 西尔(John Scarle)认为,计算机是“研究语言和研究精神时的一种极其有用的工具。”但娃他坚持认为它不会真的思维,因为它所做的就是处理符号,处理那些对计算机来说毫无意思的符号,它与知觉、意识毫无关系。
没有人能够对机器的意识问题作出好的回答,因为没有人真正知道意识是什么。事实上,我们脑了里有大量未知的过程,认为我们有自我意识的看法几乎是一种武断。不过,至少人工智能的一些研究者认为,自我意识是复杂系统的一种“突生”性质。这种观点就是说,在精神中没有一个元素本身是自我意识的,这好像细胞中没有一个原子或酶分子本身是活的。但是当这些原子以一种微妙地排列的方式结合起来时,它们就是生命。
如果有朝一日我们果真造出了会思维、有意识的机器,……?1514年,哥白尼把地球从宇宙的中心移到一个行星的位置上,从而改变了人与上帝的关系。1959年,达尔文发表《物种起源》,使人类成为动物之—,给了我们一个远不是那么高贵的关于我们自己的地位的观念。现在,人工意识的诞生将改变我们关于“自我”的思想。其后果必定是极其深刻的。
[Science,1985年3月]