第一章 电脑能有精神吗? 

引 论 
  
  
  
  电脑技术在过去的几十年间有了极其巨大的进展。而且,很少人会对未来的几十年 
内在速度、容量和逻辑设计方面的伟大进步有所怀疑。到那时候,今日的电脑将显得正 
和我们今天看早年的机械计算器那样的迟钝和初等。其发展的节律几乎是令人恐惧的。 
电脑已能以人类远远不能企及的速度和准确性实现原先是属于人类思维的独霸领域的大 
量任务。我们对于机器能在体力方面超过自己早已司空见惯,它并不引起我们的紧张。 
相反地,我们因为拥有以巨大的速度--至少比最健壮的人类运动家快五倍的--在地球上 
均匀地推动我们,以一种使几十个人相形见绌的速率挖洞或毁灭抛弃的建筑的装备而感 
到由衷的高兴。机器能使我们实现我们过去在体力上从未可能的事,真是令人喜悦:它 
们可以轻易地把我们举上天空,在几个钟头内把我们放到大洋的彼岸。这些成就毫不伤 
害我们的自尊心。但是能够进行思维,那是人类的特权。正是思维的能力,使我们超越 
了我们体力上的限制,并因此使我们比同伙生物取得更加骄傲的成就。如果机器有朝一 
日会在我们自以为优越的那种重要品质上超过我们,那时我们是否要向自己的创造物双 
手奉出那唯一的特权呢? 
  
  机械仪器究竟能否思维的问题---也许甚至会体会到感情,或具有精神---不是一个 
什么新问题1。但是,现代电脑技术时代的来临赋予它新的冲击力甚至迫切感。这一问题 
触及到哲学的深刻底蕴。什么是思维?什么是感觉?什么是精神?精神真的存在吗?假 
定这些都存在,思维的功能在何种程度上依赖于和它相关联的身体结构?精神能否完全 
独立于这种结构?或许它们只不过是(合适种类的)身体结构的功能?无论如何,相关 
结构的性质必须是生物的(头脑)吗?精神---也能一样好地和电子设备相关联吗?精神 
服从物理定律吗?物理定律究竟是什么? 
  
  这些都被包括在本书我要试图探索的问题之中。要为这么崇高的问题寻求确定的答 
案当然是无理的要求。我不能提供这个答案:虽然有些人想用他们的猜测强加于我们, 
但在实际上,任何人也做不到。我自己的猜测在本书后头将起重要作用,但是我要清楚 
地把这些猜想和坚实的科学事实区分开来,并且我还要把这些猜想所根据的原因弄清楚 
。我不如这么说好了,有关在物理定律、数学性质和意识思维的结构之间的关系引起了 
某些显然全新的问题,我陈述了以前从未有人发表过的观点。这不是我三言两语即能足 
以描述的观点,因此需要写这么长篇幅的书。但是简略地讲,也许这样会引起一点误会 
,我至少能说,我的观点认为,正是我们现在对物理基本定律缺乏理解,才使我们不能 
物理地或逻辑地掌握“精神”的概念。我在这里不是讲,永远不可能很好地掌握这些定 
律。相反地,本书的部分目的即是企图在这一方面似乎有前途的方向去刺激将来的研究 
,并且想要提出某些相当特殊的、显然是新的关于“精神”实际上可在我们知道的物理 
发展中占据什么位置的建议。 
  
  我应该清楚地表明,我的观点在物理学家中是非传统的,并因此在目前不太可能被 
电脑科学家或生理学家所采纳。大部分物理学家会宣称,在人脑尺度下有效的基本定律 
已经完全知道。当然,在我们物理知识方面一般地仍有许多空白这一点,是无可争议的 
。例如,我们不知道制约自然的次原子粒子质量值以及它们相互作用强度的定律。我们 
还不能使量子理论和爱因斯坦的狭义相对论完全协调--遑论去建立“量子引力论”了。 
这种理论要使量子理论和他的广义相对论相协调。由于还没有量子引力论,人们就不能 
理解在已知基本粒子大小的1/100000000000000000000的不可思议的微小尺度下空间的 
性质,尽管我们以为自己关于比这更大尺度下的知识是足够的。我们也不知道这整个宇 
宙无论在空间上还是在时间上是有限的还是无限的,尽管这样的不确定性对于人类尺度 
的物理学似乎没有什么影响。我们不理解既作用于黑洞的核心又作用于宇宙本身大爆炸 
起源处的物理学。然而,所有这些问题似乎和人类大脑运行有关的“日常”(或稍小一 
些)尺度问题的距离是要多遥远就多遥远。它们肯定是遥远的!尽管如此,我将论证, 
正是在我们鼻子尖(不如说是后面),在我们的物理理解中,正是在和人类思维和意识 
的运行相关的水平上,还存在巨大的无知!正如我将要解释的,甚至大多数物理学家还 
不承认这个无知。我还要进一步论断,黑洞和大爆炸与对这些问题的考虑的确有相关之 
处,这真是令人吃惊! 
  
  我将要用证据来支持我要提出观点以说服读者。但是,为了理解这些观点我们还要 
做许多事。我们将要到奇异的国度以及陌生的研究领域中去旅游。我们要考察量子力学 
的结构、基础和困惑,狭义和广义相对论、黑洞、大爆炸、热力学定律、电磁现象的马 
克斯韦理论以及牛顿力学的基本特征。当企图要理解意识的性质和功能时,哲学和心理 
学问题的作用就清楚地呈现出来了。除了设想的电脑模型外,我们当然要对大脑的实际 
神经生理学稍有些了解。我们要具备人工智能现状的某些观念,还需要知道什么是图灵 
机,需要理解可计算性、哥德尔定理以及复杂性理论的意义。我们还将深入到数学的基 
础甚至物理实在的最本质的问题中去。 
  
  如果,在所有这一切的结尾,读者对我就要表达的不太传统的论证仍然无动于衷, 
至少我希望她或他从这个曲折迂回的、但我希望是激动人心的旅途中,得到某些真正有 
价值的东西。 
  
  
  
图灵检验 
  
  
  
  让我们想象一种新型的电脑被推到市场上来,它的记忆容量和逻辑单元的数目可能 
超过了人脑。还假定为此机器仔细地编了程式,并提供了合适种类的大量数据。制造者 
宣称这种仪器实际上在思维。他们也许还宣布它们真正是有智慧的。或许他们还走得更 
远,并提出该仪器实际上感到痛苦、快乐、慈悲、骄傲等等,并且自己知道以及实际上 
理解它们自己的所作所为。的确,它们仿佛就要被宣布是有意识的。 
  
  我们如何才能相信制造者的宣称呢?当我们通常买一台机器时,完全根据其所提供 
的服务来判断其价值。如果它令人满意地实行了我们规定的任务,我们就很高兴。若不 
是这样,就把它送回去修理或代换。为了检验该制造者所宣称的该仪器实际上具有人类 
的属性,我们会根据这一判据,简单地要求它在这些方面是否能和人类一样地行为。假 
定它令人满意地做到这些,我们就没有原因去抱怨制造者,也没有必要把这台电脑退回 
修理或代换。 
  
  这就为我们提供了有关这些事体的非常有效的观点。假定该电脑的动作和一个人在 
思维时的动作方式不能区分,行为主义者就会说它在思维。我在此刻暂且采纳行为主义 
者的这一观点。当然,这不意味着我们要求电脑以一个人在思考时可能行走的方式移动 
。我们更不指望它会活灵活现地像人类:这些和电脑的目的无关。然而,这意味着我们 
要求它对任何我们介意问它的问题产生拟人的答案。假定它以一种和人类不能相区别方 
式提供这些答案,则我们就宣称对它的确在思维(或感觉、理解等等)这个事实表示满 
意。 
  
  阿伦·图灵在题为《计算机和智力》的著名文章中有力地论证了这一观点。该文于1 
950年发表在哲学性杂志《精神》上(图灵1950)。(我们以后还要时常提到图灵。)现 
在称作图灵检验的观念就是首次在这篇文章中描述的。这是为了检验一台机器是否能合 
情理地被说成在思维的企图。让我们假设一台电脑(正如上面描述的、我们制造者所叫 
卖的)确实被宣称为在思维。按照图灵试验,该电脑和某个人类的自愿者都躲开到(知 
觉的)质问者的视线之外。质问者必须依赖向他们双方提出检验问题,来决定两者何为 
电脑何为人类。这些问题以及更重要地她①收到的回答,全部用一种非人格的模式传送 
,譬如讲打印在键盘上或展现在屏幕上。质问者不允许从任何一方得到除了这种问答之 
外的信息。人的主体真实地回答问题并试图说服她,他确实是人而另外的主体是一台电 
脑;但是该电脑已被编好了“说谎”的程序,为了试图说服质问者它反而是人。如果质 
问者在一系列的这种检验的过程中,不能以任何一致的方式指明真正的人的主体;那么 
该电脑(或电脑程序、或程序员、或设计者等等)肯定是通过了这一检验。 
  
  现在人们也许会争辩道,这种检验对于电脑实际上是不甚公平的。因为如果交换一 
下角色,使人的主体被要求去假装成电脑,而电脑作真实的回答,那么要质问者去发现 
哪个是哪个就太容易了。她所要做的一切只是要求这些主体进行某些复杂的算术计算。 
一台好的电脑能够一下子准确地回答,而人很容易被难倒。(然而,人们对此要稍微小 
心一些。有些“计算奇才”具有非常惊人的心算技巧,从不算错并且显得轻松胜任。例 
如约翰·马丁·萨查里阿斯·达斯2,一位文盲农夫的儿子,他从1824年至1861年生活在 
德国。他能在比一分钟短的时间内用心算完成两个八位数的乘法,或在大约六分钟时间 
内完成两个二十位数的乘法!很容易错认为这是一台电脑在计算。在更近代,亚历山大 
·爱特金和其他人的计算成就也一样地令人印象深刻。爱特金是1950年代爱丁堡大学的 
数学教授。质问者对此检验所选择的算术问题必须比这个更令人绞尽脑汁,譬如讲,在 
两秒钟内乘两个三十位数,一台好的现代电脑可轻而易举做到这一点。) 
  
  这样,电脑程序员的部分任务是使电脑在某一确定方面比它实际更“愚蠢”。因为 
如果质问员要问该电脑一个复杂的算术问题,正如我们上面考虑过的,那么现在电脑必 
须假装回答不了或者马上放弃!但是我相信以这种方式使电脑变“愚蠢”不是电脑程序 
员面临的特别严重的问题。使之回答一些最简单的人类不会感到有任何困难的“常识” 
问题正是他们的主要困难! 
  
  然而,在引用这类特例时存在一个固有的问题。因为不管人们会首先提出什么,很 
容易设想一种方法使电脑正如一个人的样子去回答那个特殊问题。但是,在电脑方面的 
任何真正理解的缺乏都会因为不断的询问而显露出来,尤其是对于具有创造性和需要真 
正理解的问题。质问者的一部分技巧在于能设计出如此创造性的问题,另一部分是利用 
设计来揭示出是否发生某些实在“理解”的探测性的其他问题去追踪它们。她偶尔也可 
以问一个完全无聊的问题,看看电脑能否检测出差别来,她或者可以加上一两个表面上 
听起来像是无聊的、而实际上有一点意义的问题,例如她可以说:“我听说,今天上午 
一头犀牛在一个粉红色的气球中沿着密西西比河飞。你怎么理解此事?”(人们可以想 
象该电脑的眉头上,泛出冷汗��用一不适当的比喻!)它也许谨慎地回答:“我 
听起来觉得这不可思议。”到此为止没有毛病。质问者又问:“是吗?我的叔叔试过一 
回,顺流逆流各一回,它只不过是浅色的并带有斑纹。这有什么不可思议的?”很容易 
想象,如果电脑没有合适的“理解”就会很快地暴露了自己。在回答第一个问题时,它 
的记忆库非常有助地想到它们没有翅膀,甚至可以在无意中得到“犀牛不能飞”,或者 
这样地回答第二个问题“犀牛没有斑纹”。下一回她可以试探真正无意义的问题,譬如 
把它改变成“在密西西比河下面”,或者“在一个粉红色的气球之中”,或者“穿一件 
粉红色夜服”,再去看看电脑是否感觉到真正的差别! 
  
  让我们暂且撇开是否或何时能造出通过图灵检验的电脑的问题。让我们仅仅为了论 
证的目的假定,这种电脑已被造出。我们可以问,一台通过检验的电脑是否应该必须说 
在思维、感觉和理解等等。我将要很快地回到这事体上来。此刻我们且考虑它的一些含 
义。例如,如果制造者的最强的宣布是正确的,就是说他们的仪器是一个思维的、感觉 
的、敏感的、理解的、意识的生物,那么在我们购买该仪器时就涉及到道义的责任。如 
果制造者的话是可信的话,事情就应该是这样子的!开动电脑仅仅是为了满足我们的需 
要而不考虑其自身的感情应受到谴责。那在道义上和虐待奴隶没有什么差别。一般地说 
,我们是应避免使电脑经受制造者宣称的它会感觉到的痛苦。当它变得和我们很亲近时 
,要关掉也许甚至卖掉它,在道义上对我们都是困难的。就会出现我们和其他人类或其 
他动物的关系要把我们卷入的其他无数的问题。所有这些现在都变成紧密相关的事体。 
这样,让我们(以及当局!)知道制造者的宣布是否真的,便具有极大的重要性!我们 
假定这个宣布是基于他们如下的断言:“每一台思维的仪器已被我们的专家严格地进行 
了图灵检验”。 
  
  我仿佛觉得,尽管这些声称的某些含义、尤其是道义上的明显荒谬性,把成功地通 
过图灵检验当作存在思维、智慧、理解或意识的有效指标的情形,实际上是相当有力的 
。如果我们不采取交谈的话,何以判断他人也具备这些品质呢?实际上还有其他的譬如 
面部表情、身体运动以及一般动作等等判据,它们会大大地影响我们所做的这种判断。 
但是,我们可以想象(也许在更为遥远的将来)可把一个机器人制造得能成功地模拟所 
有这些表情和动作。这下子就不必要把机器人和人的主体躲藏在质问者的视界之外,但 
是质问者随意支配的判据在原则上可和以前相同。 
  
  我本人的观点是准备把图灵检验的要求大大地减弱。我似乎觉得要求电脑这么接近 
地模仿人类,以使得在一种相关的方式下不能和一个人区分开实在是太过份了。我自己 
想要求的全部是,我们知觉的质问者应该从电脑回答的性质对在这些回答背后的意识存 
在真正地感到信服,尽管它可能是非常异样的一种意识。这就是迄今建造的所有电脑系 
统明显缺乏的某种东西。然而,我能觉察到这样的一种危险,如果质问者能决定哪一方 
事实上是电脑,那么她可能也许是无意识地迟迟不把甚至她能感觉到的意识赋予电脑。 
或者在另一方面,她也许有这个印象,即她“嗅”到了这个“异物的存在”,即便该电 
脑没有这种可疑的好处,她还是准备赋予它这个好处。由于这种原因,就在图灵检验原 
先形式的更大的客观性上,它具有明显的优点,我在下面就一般地拘泥于这种形式。我 
早先提到的对于电脑引起的“不公平”(也就是它必须做人能做的一切才能通过,而人 
不必会做电脑能做的一切)似乎没有使把图灵检验当作思维等等真正检验的支持者忧虑 
。无论如何,他们的观点时常倾向于不必等太长时间,譬如讲到2010年,一台电脑就能 
实在地通过这一检验。(图灵原先提出,到2000年,对一位“中等的”质问者仅仅五分 
钟的提问,电脑的成功率为百分之三十。)这意味着,他们相当有信心,这一不公平不 
会显著地延迟这一天的到来! 
  
  所有这些事体都与根本问题有关:也就是这一操作的观点是否实际上为判断一个对 
象中存在精神的品质提供一族合理的判据?有些人会竭力争论说它不是。不管模仿得多 
么有技巧,终究不和实在的东西一样。我在这一方面的看法是比较中庸。我倾向于相信 
,作为一般的原则,不管是多么巧妙的模仿,应该总能被足够巧妙的探测检验得出来, 
尽管这只是信念(或科学乐观主义)而不是已被证明的事实。这样,总的来说,我准备 
把图灵检验接受为在它的选定范围内是粗略成立的。也就是说,如果电脑对这些问题的 
确能以一种和人不能区分的方式回答,并如此适当地①一致地愚弄了我们有理解力的质 
问员,那么在缺乏任何相反的证据下,我猜想电脑实际上是在思维、感觉等等。我在这 
儿用的这个词,譬如“证据”、“实际上”和“猜想”,其含义是当提到思维、感觉或 
理解、或尤其是意识时,我用这些概念去表明实际客观的“事体”,它在物理形态上的 
存在与否是我们要确定的某种东西,而不仅仅是语言上的方便!我把这当作一个关键点 
。我们在所有能得到的证据的基础上作猜测,以辨别这种品质的存在。(这和譬如讲, 
天文学家想辨别遥远恒星的质量,在原则上没有什么不同。) 
  
  必须考虑哪一些反证据呢?关于这一点要在预先立下规则是很困难。但是我要弄清 
楚的是,仅仅说电脑是由晶体管、导线等等而不是由神经元、血管等等构成的事实本身 
,我不认为是反证据。我在心里想到的是,在将来的某一时候可以发展出成功的意识理 
论,这里成功的含义是,它是一个连贯的适当的物理理论,以一种美丽的方式和物理理 
解的其余部分相协调,而且使它的预言精确地和人类声称何时、是否、到何等程度他们 
自己觉得是意识的精确相关,而且这一理论在考虑我们电脑的想象的意识方面的确关系 
重大。人们甚至可以摹想按照这一理论的原则建造的“意识探测器”。对于人的主体它 
是完全可靠的,但在电脑的情形给出和图灵检验相左的结果。在这种情形下,人们必须 
非常小心地解释图灵检验的结果。我似乎觉得,人们对图灵检验的合适性的问题的态度 
部分地依赖于他对科学技术如何发展的期望。我们以后必须再来考虑其中的一些问题。 
  
  
  
人工智能 
  
  
  
人工智能是近年来引起很大兴趣的一个领域,经常被简写成“AI”。AI的目标是用机器 
,通常为电子仪器,尽可能地模拟人的精神活动,并且或许在这些方面最终改善并超出 
人的能力。AI的结果至少在四个方向是有趣的。尤其是有关机器人的研究,它在很大的 
程度上是有关工业对可实行“智力”的,也就是万能和复杂的、原来需要人干预或控制 
的任务的机械仪器的实际需要,并使他们以超过任何人的能力的速度和可靠性,或者在 
人类处于危险的各式各样条件下运行。还有专家系统的发展颇具商业和一般的兴趣,在 
这系统中整个职业的,譬如医学、法律等等的主要知识都能编码载入电脑的系统知识库 
里!这些职业人员的经验和专长能被这种系统知识库所取代吗?所能指望得到的是否只 
不过是事实的罗列以及意义广泛的前后参考的长表?电脑能否呈现(或模拟)出真正的 
智慧肯定具有相当大的社会含义。心理学是和人工智能有直接关系的另一领域。人们希 
望通过利用电子仪器来模拟人脑或某些其他动物头脑的行为,倘若发现做不到,也可以 
知道有关头脑工作的某些重要的东西。最后,还存在一个乐观的希望,就是由于类似的 
原因,AI可为精神概念的意义提供洞察,并为其深刻的哲学问题提供一些答案。 
  
  迄今为止,AI已进展到何等程度呢?让我来总结是有一些困难。在世界各地存在许 
多活跃的小组,而我只熟悉这工作的一小部分的细节。尽管如此,可以公正地说,虽然 
的确做了许多聪明的事,对真正智慧的任何模拟还是非常遥远的事。为了使读者领略这 
个学科的风味,我首先提到早先的(仍然是令人印象深刻的)成就,以及后来在电脑下 
棋方面的重要进展。 
  
  W·格雷·瓦尔特的“乌龟”3是1950年代早期制造的第一批人工智能仪器之一。在 
电池快用光前,它会以自己的动力在地面上四处爬行,然后它跑到离得最近的电插座那 
儿,把自己插上给电池充电。当充满了电以后,自己会从插座拔出,并重新在地面上爬 
行!从那时起人们制造出来许多类似的东西(例如,参见瓦尔兹1982)。另一独立发展 
的线索是以特雷·维诺格拉德在1972年设计的电脑程序为例子,它在模拟中可以和一堆 
不同形状和颜色的木块打交道,以不同的顺序和排列把一块放在另一块的上头。尽管早 
期获得这类成功,人们证明了,要设计甚至一个简单的能操纵自如的、避开人类看来“ 
显然”需用动作来躲开的障碍物的、连接的“机器人手臂”是何等的困难。视场的解释 
通常也是AI步骤在目前根本无法接近人脑(以及绝大多数其他动物的头脑)似乎能“轻 
而易举”做到的那种程度的领域。 
  
  K·M·柯尔贝在1960年代中期发展的电脑程序也许更和图灵检验相连贯。它如此成 
功地模拟成一位精神疗法专家,以至于某些病人发现自己宁愿要电脑而不要人类的医疗 
家,并且对电脑比对人类的对手更愿把自己的内心袒露得更多些。可将下列(通过电传 
机)的交谈视作在电脑“医生”和病人之间的这种交流的一个例子4, 
  医生:我可以为你效劳吗 
  病人:我不知道 
  医生:请告诉我一些情形 
  病人:不 
  医生:请你说得仔细些 
  病人:今天我厌烦得很 
  医生:你知道这是什么原因 
  病人:是的我老了 
  医生:请继续讲 
  病人:仿佛任何事情都激不起我的兴致 
 医生:请更多地告诉我你的这种感觉 
  病人:我也有些知道为何我会这样感觉 
  医生:是吗 
 病人:我似乎在想有一个家 
  医生:什么东西使你有这样的想法 
  病人:它是一种挑战 
  医生:为什么那对你是重要的 
  
  
  虽然这会给你一种电脑具有某种理解力的可怕印象。在事实上它一点也没有,只不 
过是跟着某种相当简单的机械规则而已。(还存在一个和它相“颠倒”的系统,这时电 
脑装成一个痴呆症病人,给出教科书的所有答案和症状,并能捉弄一些医科学生,使之 
相信是一位病人在提供回答!) 
  
  电脑下棋也许为机器能显示可认为是“智慧行为”的最好例子。现在(1989)一些 
机器在与人对奕时实际已达到极受尊敬的水平,达到了“国际大师”的水准。(为了比 
较起见,世界冠军卡斯帕洛夫评分高于2700,而这些电脑的评分略低于2300。)特别是 
,邓恩和卡斯·斯帕拉克连(为忠诚优越商业微处理机)写的电脑程序已达到2110的(E 
lo)评分,并得到USCF“大师”称号的奖。主要由卡内基·梅隆大学的徐宪编程序的“ 
深思熟虑”更是令人印象深刻,它的评分约为2500Elo,最近在一次下棋锦标赛中(1988 
年11月,加利福尼亚,长堤)首次取得了(和大师托尼·迈尔斯)共享第一奖,并实标 
上第一回击败了一位大师(本特·拉申)的成就!5现在下棋电脑也精于解答棋术问题, 
它在这方面的造诣轻而易举地超过了人类6。 
  
  下棋机除了精确的计算能力外,还大大地依赖于“博学多闻”。值得评论的是,只 
要落子动作要求非常快,下棋机总的来说比相当的奕手高明一些。如果每一着允许的时 
间更长,则奕手的表现相对地比机器好。人们可依照如下事实来理解这一切,电脑是基 
于准确和快速的广义的计算来作决策的,而奕手则利用依赖于相对缓慢的意识评定的“ 
判断”。利用这些人的判断来显著地减少必须在每一计算步骤中认真考虑的可能性,当 
有时间时,可以得到比不用这类判断而只用简单计算和直接排除可能性的机器更深刻的 
分析。在玩困难的东方围棋时,这一差别就更显著,那里每一步的可能数目比国际象棋 
大得多。意识和形成判断之间的关系,将是我后面尤其是第十章论证的中心。 
  
  
  
用人工智能得到“快乐”和“痛苦” 
  
  
  
  人工智能宣称为理解精神品质,譬如快乐、痛苦、饥渴等等提供了途径。让我们举 
格雷·瓦尔特的乌龟为例子。它的行为模式在电池快用完时就要改变,然后它以被设计 
好的行为方式补充自己的能量存储。这和人类或任何动物感到饥饿时的行为非常类似。 
当格雷·瓦尔特乌龟以这种方式行为时,说它饥饿了并没十分歪曲语言。其中的某些机 
制对它电池的状态很敏感,低到一定点时就会让乌龟转换到不同的行为模式。在动物饥 
饿时,除了其行为模式的改变更复杂、更微妙之外,无疑存在某些类似的动作。它不是 
简单地从一种行为模式改变到另一种行为模式,而是存在一种以确定方式的行为倾向的 
变化,当补充能量供应的需求增加时,这些变化就会更强烈(达到某一点)。 
  
  类似地,某些AI的支持者摹想,可以这种方式来适当模拟诸如痛苦或快乐的概念。 
让我们把情形简化,并只考虑从极端“痛苦”(分数为-100)到极端“快乐”(分数为+ 
100)的单独的“感觉”测度。想象我们有一台仪器,譬如讲是某种电子的、具有记录它 
自己的(假想的)“快乐--痛苦”度量,我把它称作“苦乐表”。这一仪器具有一定的 
行为模式和一定的内部的(譬如它的电池状态)或外部的输入。其想法是把它开动以使 
其苦乐度取最大值。可能会有许多影响苦乐度的因素。我们肯定可以做这样的安排,使 
得电池中的电荷就是其中的一个因素,低电荷算作负的,而高电荷算作正的,但是还有 
其他因素。也许我们的仪器装有某些太阳光电池,这是获取能量的另一种手段。这样, 
当光电池起作用时就不消耗电池的能量。我们可以把光电池朝向光线以增加其苦乐度。 
这就是不存在其他因素时它所要做的事。(在实际上,格雷·瓦尔特乌龟通常避开光线 
!)我们需要某种实行计算的手段,使得它能弄清它上面部分的不同动作最终在它的苦 
乐度上的可能效应。可以引进概率权重,使得计算在苦乐度表上具有更大或更小的效应 
,依其所根据的数据的可靠性而定。 
  
  还必须为我们仪器提供仅仅为了维持它的能量供应以外的其他“目的”,否则我们 
就没有办法去把“痛苦”从“饥饿”中区别出来。在此刻要求我们仪器有生育等等机能 
无疑是太过份了,性的问题不予考虑!但是,我们也许能对它注入一种和其他同类仪器 
相陪伴的“需求”和它们相遇就得到正的苦乐值。我们或者可以为了其自身的缘故“渴 
望”学习,使得只要储存有关外部世界的事实即能在苦乐表上得正分(我们可以更自私 
地安排在为我们作各种服务时得到正分,正如一个人在制造机器仆人时所要做的那样! 
)也许有人会论争道,由于凭一时高兴把这种“目的”加到我们的仪器上显得有些做作 
。但是,这和自然选择加在作为个体的我们身上的,在很大程度上是由于传宗接代的需 
求所支配的一定“目标”,并没有什么非常大的差别。 
  
  现在,假设我们的仪器按照所有这一切已被成功地造出。我们有什么权利去宣称它 
的苦乐值为正时它确实感到快乐,而苦乐值为负时感到痛苦呢?AI(或行为主义)的观 
点是,我们简单地从仪器行为的方式来判断。由于它以一种尽可能增加其正值的(并且 
尽可能久地)以及相应地尽量避免负值的方式行为,那么我们可以合理地把它的值的正 
的程度定义为快乐的感觉,而相应地把负值定义为痛苦的感觉。人们会说,此定义的“ 
合理性”正是来自于人类对于快乐和痛苦以目标方式反应的这一事实。当然,正如我们 
都知道的,人类的事情实际上并不像这么简单:我们有时似乎特地招惹痛苦,故意回避 
某种快乐。很清楚,我们的行为实在是由比这些更复杂得多的判据所导引的(参阅德涅 
特(1978),190--229页)。但是作为一个非常粗糙的近似,我们的行为的确是避免痛 
苦和追求快乐。对于一个行为主义者来说,这已经足够在类似的近似水平上,为我们的 
仪器的苦乐度和它的痛苦快乐评价的相认同提供正当的理由。这种认同仿佛也是AI理论 
的一个目的。 
  
  我们应该问:在我们的仪器的苦乐度为负或为正时,它是否真正分别地感觉到了痛 
苦或快乐呢?我们的仪器在根本上是否能感觉到什么呢?行为主义者或者会斩钉截铁地 
说“显然如此”,或者把这一问题斥为无稽之谈。但是,我觉得这里很清楚地存在一个 
要考虑的、严肃的困难问题。它对我们自己具有不同种类的影响。有些像痛苦或快乐是 
可意识的;但是还有其他我们不直接知道的。这可由一个人触摸到热火炉的经验得到清 
楚的阐明。他在甚至还未感到痛楚之前就采用了抽手回来的不情愿的动作。事情似乎变 
成,这种不情愿的动作比痛苦或快乐的实际效应更接近于我们仪器对自己的苦乐度的反 
应。 
  
  人们经常用一种拟人化的语言,以一种叙述性的、通常是滑稽的方法来描述机器的 
行为:“今天早晨我的车仿佛不想开拔”;或“我的手表仍然认为这是加利福尼亚时间 
”;或“我的电脑宣布,它不理解上一条指令,而且不知道下一步要做什么。”我们当 
然不是真正地表明车实际上会要什么,或者手表在思维,或者那台电脑①真的宣布任何 
事情,或者它理解甚至知道自己在做什么。尽管如此,假使我们仅仅在它们企图的意义 
上而不是按字面宣布上接受这样的陈述,则它们可以是描述性的,并且对我们自己的理 
解有真正的帮助。我将会对AI的有关各式各样建造起来的仪器所具有的精神品质的声称 
采取类似的态度,而不顾及他们所企图想望的!如果我同意说,格雷·瓦尔特乌龟会饥 
饿,那只是在半开玩笑的意义上这么说的。如果正如上面所摹想的,我准备对苦乐值使 
用诸如“痛苦”或“快乐”等等术语,只是因为我发现其和我自己的精神状态的行为有 
一定的相似性,这些术语有助于我对其行为的理解。我不是暗示这些类似真的是特别接 
近,或者不存在其他无意识的以更加类似得多的方式影响我行为的东西。 
  
  我希望使读者清楚,我的意见是,对精神品质的理解,除了直接从AI得到之外,还 
存在有更大量的东西。尽管如此,我相信AI实现了一种值得尊敬和慎重处理的严肃的情 
势。我在说到这些时,并不意味着在人工智能的模拟中,如果有的话,有非常多的成就 
。但是人们必须心中有数,这个学科还是非常年轻的。电脑会变得更快速,具有更大的 
可快速存取的空间、更多的逻辑元,并可并行地进行更大数目的运算。在逻辑设计和程 
序技术方面将会有所改善。这些机器,这种AI哲学的载体将在它们的技术能力方面得到 
大幅度的改善。此外,该哲学本身也不是固有地荒谬的。也许电脑,也就是当代的电脑 
的确能非常精确地模拟人类的智慧。这种基于今天被理解的原则,但是具有更伟大得多 
的能力、速度等等的电脑一定会在近年内被制造成功。也许甚至这样的仪器将真正是智 
慧的;也许它们会思维、感觉以及具有精神。或者它们也许还制造不出来,还需要一些 
目前完全缺乏的原则。这些都是不能轻易排斥的问题。我将尽我所见地提出证据。我将 
最终提出自己的看法。 
  
  
  
强人工智能和西尔勒中文屋子 
  
  
  
  有一种称作强人工智能的观点在这些问题上采取相当极端的态度7。根据强AI,不仅 
刚才提到的仪器的确是智慧的并且有精神等等,而且任何计算仪器,甚至最简单的机械 
的,诸如恒温器的逻辑功能都具有某种精神的品质8。这种观点认为精神活动只不过是进 
行某种定义得很好的、经常称作算法的运算。下面我将精确地说明算法实际上是什么。 
此刻暂且把算法简单地定义为某种计算步骤就已足够了。在恒温器的情形下,其算法至 
为简单:仪器记录其温度是否比设定的更高或更低,然后使线路在前面情形时断开,而 
在后面情形时接通。对于人脑的任何有意义的精神活动,其算法必须比这远为复杂得多 
,它和恒温器的简单算法在程度上具有极大的差别,而在原则上则相同。这样,根据强A 
I,在人脑的主要功能(包括它的一切的意识呈现)和恒温器之间的差别只在于,在头脑 
的情形中具有更大得多的复杂性(或许“更高级的结构”,或“自省性质”,或其他可 
赋予算法的属性)。按照这一观点,至为重要的是,所有精神品质,譬如思维、感情、 
智慧、理解、意识都仅仅被认为是这一复杂功能的不同侧面;也就是说,它们仅仅是头 
脑执行的算法的特征。 
  
  任何特殊算法的价值在于它的表现,也就是它的结果的精确,它的范围,它的经济 
性和它可运行的速度。一种想和人脑中假想的运行的算法相比拟的算法一定是非常了不 
起的东西。如果头脑中存在有这一类算法,强AI支持者肯定作此断言,那么在原则上它 
可在一台电脑上执行。假定它不受存储容量和运算速度的限制的话,的确可在任何当代 
的通用电子电脑上执行。(我们以后去考虑普适图灵机时,这一评论就会得到证实。) 
人们预料,在不太远的将来大型快速电脑将会克服任何这类限制。一旦这样的一种算法 
能被找到,它就能通过图灵检验。强AI支持者就会宣布,只要执行该算法,它自身就会 
经验到感情,具有意识,并且是一种精神。 
  
  绝不是每一个人都同意,可用这类方法把精神状态和算法相等同。美国哲学家约翰 
·西尔勒(1980,1987)尤其反对这种观点。他引用过这种例子,即假定有一台适当地 
编了程序并已经实际上通过了简化的图灵检验的电脑,但是他以有力的论证支持如下观 
点,即便如此,这台电脑仍然完全不具备和理解有关的精神属性。其中一个例子是基于 
罗杰·施安克(施安克和阿伯勒逊1977)设计的电脑程序之上。该程序的目的是为理解 
简单的故事提供模拟,例如:“一个人进入餐馆并订了一份汉堡包。当汉堡包端来时发 
现被烘跪了,此人暴怒地离开餐馆,没有付帐或留下小费。”第二个例子是:“一个人 
进入餐馆并订了一份汉堡包。当汉堡包端来后他非常喜欢它;而且在离开餐馆付帐之前 
,给了女服务生很多小费。”作为对“理解”这一故事的检验,可以询问电脑,在每一 
种情形下此人是否吃了汉堡包(这一事实在任一故事中都没有说清)。电脑对这类简单 
的故事和问题可给出和任何讲英文的人会给出的根本无从区别的回答,也就是对于这些 
特定的例子,第一种情形是“非”,而第二种情形是“是”。这样一台机器已在这一非 
常有限的意义上通过了图灵检验! 
  
  我们应该考虑的问题是这类成功是否实际上表明电脑方面或许程序本身方面具有任 
何真正的理解。西尔勒使用了他的“中文屋子”的概念来论证它不具备。他首先摹想, 
这一故事是用中文而不是英文来讲,这肯定是非本质的改变。把这一特殊演习的电脑算 
法的所有运算(用英文)作为一组指令提供给用中文符号进行操作的计算员。西尔勒想 
象自己被锁在一个屋子里操纵这一切。代表这一故事和问题的一连串符号通过一条很小 
的缝隙被送进这屋子。不允许任何其他的来自外头的信息漏进去。最后当所有的操作完 
成后,程序的结果又通过这条缝隙递到外面来。由于所有这些操作都是简单地执行施安 
克程序的算法,这个最终程序的结果简单地为中文的“是”或者“非”,给出了关于以 
中文说的故事用中文问的原先问题的正确答案。现在,西尔勒很清楚地表明他根本不识 
中文,这样他对该故事讲的是什么没有任何哪怕是最浅的概念。尽管如此,只要正确地 
执行了那些构成施安克算法的一系列运算(已给他用英文写的这一算法的指令),他就 
能和一位真正理解这故事的中国人做得一样好。西尔勒的要点是,而且我以为是相当有 
力的,仅仅成功执行算法本身并不意味着对所发生的有丝毫理解。锁在他的中文屋子里 
的(想象的)西尔勒不理解任一故事的任一个词! 
  
  人们对西尔勒的论证提出了许多异议。我将只提到我认为具有重要意义的那些。首 
先,在上面用到的“不理解任一个词”的短语也许有容易使人误导的东西。理解和模式 
之间正与它和单独词汇之间有一样多的关系。在执行这类算法时,在不理解许多个别词 
汇的实在意义的情形下,人们可以知觉这些符号构成的模式的某些东西。例如,中国字 
的“汉堡包”(如果,真的有这个词的话)可用某一其他的菜譬如讲“炒面”来替换, 
而故事不会受到重大影响。尽管如此,我觉得可以合理地假设,如果人们仅仅跟踪着这 
种算法细节的话,(即使把这种代换认为不重要)只传递了该故事中很少的实际意思。 
  
  其次,人们必须计入这个事实,如果用人类的操纵符号来执行的话,在正常情形下 
甚至执行一个相当简单的电脑程序也会是非同寻常的冗长和繁琐。(这毕竟正是为何我 
们让电脑来为人类做这种事的原因!)如果西尔勒真的以这种提议的方式实行施安克的 
算法,那么仅仅是为了得到哪怕是一个单独问题的答案,他很可能要花费许多天、许多 
月甚至许多年极其枯燥的工作,这根本不像是一位哲学家的活动!然而,由于我们在这 
里主要关心原则的而不是实践的事体,所以我仿佛觉得这不是一个严重的反对。在具有 
和人脑相当的足够的复杂性、并因此适当地通过图灵检验的假想的电脑程序中引起了更 
多的困难。任何这类程序都是极可怕地复杂。人们可以想象,为了回答甚至相当简单的 
图灵检验问题,这一段程序的运算会涉及到如此多的步骤,以至于在一个正常人的一生 
中根本没有可能用手完成这一算法。在没有这种程序的情形下,这是否的确如此还很难 
说9。但是,依我的观点,这一极其复杂的问题无论如何不能简单地不予理睬。是的,我 
们在这里关心的是原则的事体,但是一个算法要呈现出精神品质,其复杂性就要达到某 
一“临界”量,我认为这是合情理的。这一临界量也许是如此之大,复杂到这等程度的 
算法,由任何人以西尔勒摹想的样子用手来进行,根本就是不可能想象的。 
  
  西尔勒本人允许一整队不能讲中文的符号操作员去取代原先中文屋子里的孤独者( 
“他自己”),以此来抵抗上面的反对。为了得到足够大的数目,他甚至想象把它的屋 
子用印度整个国家来代换,现在它的全部人口(除了理解中文的人以外!)都来从事符 
号操作。虽然这在实践上是荒唐的,但在原则上却不是,而且该论断在本质上和以前是 
一样的:尽管强AI宣称只要实现适当的算法即会诱导出“理解”的精神品质,这些符号 
操作员仍然不理解这故事。然而,现在另有一种反对正开始幽然逼近。这些单独的印度 
人难道不是比起来更像人脑中的神经元而不像整个人脑本身吗?没人认为神经元本身会 
单独地理解这个人的思想,神经元的激发明显地构成人脑在进行思考时的物质活动,为 
何要期望单个印度人去理解这中文的故事呢?为了答复这一诘问,西尔勒指出,如果在 
印度没有一个单独的人理解这一故事,而真实的国家却能理解显然是荒唐的。他论争道 
,一个国家正像一台恒温器或一辆汽车与“理解”毫不搭界,而单独的个人却有关系。 
  
  这一论争,比前面的那个苍白无力得多。我认为,西尔勒的论证在只有一个单独的 
人在实行算法时力量最强大,这时我们只限于注意一个不复杂到可由一个人在短于一生 
的时间内实际执行的算法的情形。我认为他在建立这一结论的论证不够严格,这就是不 
存在和一个人实行那个算法相关的离体的某种类型的“理解”,而且这种理解的存在并 
不以任何方法反射到他自身的意识上去。然而,我和西尔勒都同意,至少可以说,这种 
可能性被减少到很微小的程度。我认为西尔勒的论证对之还有相当的力量,即使它还不 
完全是结论性的。施安克的电脑程序所具有的这类复杂性的算法不能对其实行的任何任 
务有丝毫真正的理解,对这一点的展示是相当令人信服的,而且它(仅仅)暗示,不管 
一种算法是多么复杂它都不能自身体现真正的理解。这和强AI的声称相矛盾。 
  
  就我所能看到的,强AI观点中还有其他非常严重的困难。强AI观点就只管算法。这 
个算法是由头脑、电脑、印度整个国家、轮子和齿轮还是由一套水管系统来执行都是一 
样的。其观点是,对于被认为由算法所代表的“精神状态”,只有它的逻辑结构是有意 
义的,这与那个算法的特殊的物理体现完全无关。正如西尔勒所指出的,这在实际上导 
致了一种“二元论”的形式。二元论是由极富影响力的十七世纪的哲学家兼数学家雷恩 
·笛卡尔所提倡的,它断言存在物质的二种不同的形式:“精神的东西”和通常物质。 
这两类物质的一种是否并且如何去影响另一种是个额外的问题。关键是认为精神的东西 
不是由物体所构成,并能独立于它而存在。强AI的精神东西是算法的逻辑结构。正如我 
刚评论过的,一个算法的特殊的物理体现,是完全无关的某种东西。算法有某种离体的 
“存在”,这和它的按照物理的实现完全分离。我们要多么认真地对待这种存在是我在 
下一章还要讨论的一个问题。它是抽象数学对象的柏拉图实在的一般问题的一部分。此 
刻我且回避这一般的问题,而且仅仅评论强AI支持者所仿佛的确相信的算法形成它们思 
维、感情、理解以及意识、知觉的“物质”。正如西尔勒指出过的,强AI的立场似乎把 
人们逼向极端的二元论,也就是强AI支持者最不愿意与之打交道的观点,这真是富有讽 
刺意味! 
  
  这就是在道格拉斯·霍弗斯达特(1981)的题为《和爱因斯坦头脑谈话录》的对话 
中所论证的事件背后的两端论。他本人是强AI的主要提议者。霍弗斯达特捏造出一本极 
厚的书,假想它能包含对阿尔伯特·爱因斯坦头脑的整个描述。正如活着的爱因斯坦要 
回答的那样,只要简单地翻阅该书,并仔细地按照所提供的细致的说明,任何人愿意问 
爱因斯坦的问题都能得到回答。当然,正如霍弗斯达特仔细地指出的那样,“简单”是 
十足的误称。但是他的宣称是,在图灵检验的操作意义上,这本书在原则上完全等效于 
实在的爱因斯坦的可笑地迟缓的复件。这样,按照强AI的论争,这本书可像爱因斯坦本 
人那样思维、感觉、理解和知觉,但是也许是以极慢的节律生活(这样,从书--爱因斯 
坦看来,外部世界似乎以疯狂的高速度闪现)。由于这本书被认为仅仅是组成爱因斯坦 
“自己”的算法的特殊体现,它实际上就是爱因斯坦。 
  
  但是,现在出现了新的困难。这本书也许从未被打开过,或者它被无数追求真理的 
学生和研究者熟读。这本书怎么“知道”这种差别呢?这本书也许不必被打开,它的信 
息可由X射线立体扫瞄术或其他技术的魔法取出。爱因斯坦的知悉是否只有当这本书被考 
察时才被唤起呢?如果两个人在两个完全不同的时刻去问该书同样的问题,他是否发觉 
是发生了两回?或者那是否使爱因斯坦知觉的同一状态在两个分开的和时间不同的事件 
中实现?或许只当该书被改变时,他的知觉才被唤起?毕竟在正常情况下,当我们知觉 
从影响我们记忆的外面世界接受到一些信息时,我们精神状态确实稍被改变。如果是这 
样的话,这是否意味着,算法的“适当的”改变(我在这儿把记忆的储存包含到算法部 
分中去)而不是(或者以及)算法的激活被认为和精神事件相关?或者即便书--爱因斯 
坦从未被任何人或任何东西考察或扰动过,它是否维持在完全自知悉的状态?霍弗斯达 
特触及了其中的一些问题,但他完全不想去回答这些,或者和我们大多数人妥协。 
  
  去激活或者以物理形式体现一个算法是什么意思呢?改变一个算法是否和仅仅抛弃 
一个算法并且用另一个取代之在任何意义上不同呢?这些究竟和我们意识知悉的感觉有 
关吗?读者(除非他或她本人是强AI支持者)也许会惊讶,为什么我为了这样明显地荒 
谬的思想花了这么多的篇幅。事实上,我不认为这一思想在本质上是荒谬的,它仅仅是 
错误的!在强AI的背后的推理中的确有某种必须慎重对付的力量,我将解释这一点。我 
的观点是,这些思想若被适当地修正的话,还具有一些魅力,正如我还将告知诸位的。 
此外,依我看法,西尔勒表达的特殊的矛盾的观点还包含某些严肃的困惑和表面的荒诞 
,尽管如此,我在一定程度上和他同意! 
  
  西尔勒在他的讨论中似乎隐含地接受,当代的电脑,但是还加上大大加快了的动作 
速度和快速存取的记忆容量(而且可能并联运行),可以在不太遥远的将来体面地通过 
图灵检验。他是准备接受强AI的论点(以及其他大部分“科学”观点)“我们是任何电 
脑程序的体现”。此外,他还附和这种说法:“头脑理所当然地是一台电脑。由于任何 
东西都是一台数字电脑,头脑也是。”10西尔勒坚持,人脑(它可有精神)和电脑(他 
论证说没有精神),两者都可以执行同样算法,两者功能之间的差别完全在于各自的物 
质构成。但是,由于他不能解释的一种原因,他声称生物体(头脑)可有“意图性”和 
“语义性”,他把这些定义为精神活动的特征,而电子仪器没有。我觉得这对于得到科 
学的精神理论没有什么用处。也许除了生物系统(而我们刚好是这样的系统)的演化来 
的历史的“方式”以外,关于它有什么特殊的东西特地被恩准获得意图性或语义性?我 
觉得这一断语就像教义一样地令人可疑,甚至也许不比强AI的坚持的只要执行一个算法 
即能召唤起意识知觉的状态的说教更加独断! 
  
  我的意思是,西尔勒以及大量其他的人被电脑专家引入歧途。而这些电脑专家又依 
序地被物理学家引入歧途。(这不是物理学家的过错。他们甚至不知道发生了任何事情 
!)“每一件东西都是一台电脑”的信念似乎已被广泛蔓延。我在本书的愿望是为了表 
明,为何以及如何情况并非如此。 
  
  
  
硬件和软件 
  
  
  
  在电脑科学的行话中,术语硬件表示一台电脑,涉及的实在的机构(印刷线路、晶 
体管、导线、磁性存储空间等等),包括了把所有东西都联结起来的方法的全部细节。 
相应地,术语软件是指可在机器上进行的各种程序。阿伦·图灵的一个杰出的发现便是 
,任何其硬件达到一定程度复杂性和灵活性的机器,都等效于任何其他同类机器。这一 
等效性的含义是,对于任何两台这样的机器A和B,存在一段特别的软件,如果将其赋予 
机器A,就会使之完全像机器B一样地动作;类似地,还存在另一段特殊的软件,如果将 
其赋予机器B,就会使之和机器A完全一样地动作。我在这里用词“完全一样”是指,对 
任何给定的输入(在对机器提供了转换软件之后再提供它)机器的实际输出,而不是指 
每台机器用以产生这输出所花的时间。如果任一台机器在任何阶段用光了用于计算的存 
储空间,我还允许其召来一些(在原则上无限制的)外部空白空间的“粗纸”供应,可 
采用磁带、磁盘、磁鼓或任何别的什么。事实上,对机器A和B执行同一任务所需时间的 
不同值得严肃地加以考虑。例如,也许有这种情形,A在执行一特别任务时比B快一千倍 
;也许还有这种情形,同样的一对机器,存在某一其他任务,这时B比A快一千倍。此外 
,这里计时可以极大地依赖于所用的转换软件的选取。这是非常“原则的”讨论,人们 
不甚关心诸如在一段合理的时间内完成他的计算的实际的事体。我将在下一章把在这里 
提到的概念弄得更精确些:机器A和B是所谓普适图灵机的实例。 
  
  实际上,所有现代通用的电脑都是普适图灵机。这样,在上述的意义上,所有通用 
的电脑都是互相等效的:假使我们不关心运算的速度和存储空间的可能限制,则它们之 
间的差别可完全地被包摄到软件中去。的确,现代技术已经使得电脑如此快速地运行, 
并具有如此庞大的储存能力,对于大多数“日常”目的,这些实际考虑对于通常的需求 
不构成任何严重的限制①,所以这种电脑之间有效的理论上的等价也可认为是在实践的 
水平上的。技术仿佛已经把有关理想化的计算仪器的纯学术讨论转变或直接影响我们生 
活的事体。 
  
  就我所知,作为强AI哲学基础的最重要因素之一是在物理计算仪器之间的这种等价 
。硬件似乎相对地不重要(也许甚至完全不重要),而软件也就是程序或者算法被认为 
是要紧的因素。然而,我似乎觉得还有从物理的方向来的更多的重要的基础因素。我将 
指出这些因素是什么。 
  
  是什么东西赋于个别人其单独的认同性呢?在一定的程度上,是否正是构成他身体 
的原子呢?他的认同性是否依赖于构成这些原子的电子、质子和其他粒子的特殊选择呢 
?至少有两种理由说明不可能是这样子的。首先,任何活人身体的物质都处于连续代换 
的状态中。这尤其适用于一个人脑的细胞中,尽管在出生后没有产生新头脑细胞的这一 
事实。在每一活细胞(包括每一个头脑细胞)中的绝大多数原子以及实际上我们身体的 
整个物质从诞生以来已被代换了许多回。 
  
  第二个理由来自于量子物理。而且极富讽刺意味的是,严格地讲,它和第一个理由 
相冲突!按照量子力学(我们在第六章322页还要进一步地讨论),任意两颗电子必须是 
完全等同的,这同样地适合于任意两颗质子以及任一特殊种类的两颗粒子。这不仅仅说 
没有办法把两颗粒子区分开,其陈述比这还要强许多。如果一颗人脑中的一颗电子和一 
块砖头中的一颗电子相互交换,则系统的态和它过去的态不仅不能区分,而且完全相同1 
1。这同样适用于质子和任何其他种类的粒子,整个原子,分子等等。如果一个人的整个 
物质内容和他房子里的砖头的相应的粒子相交换,那么在某种强的意义上来讲,没有发 
生过任何事情。把人和他的房子区分开来的是把这些成份安置的模式,而不是这些成份 
本身的个性。 
  
  在与量子力学无关的日常水平上也许存在一个相似的情景。这就是由于电子技术使 
得我能以文字处理机来打字。当我写到这里时感到特别明显。如果我必须改变一个词, 
譬如说把“make”改成“made”,我只要简单地把“k”用“d”来取代即可以,或者我 
可重打整个词。如果我重打,新的“m”是否和旧的“m”一样,或者我是否用同样的字 
母来取代了它呢?“e”的情形又如何呢?即使如果我简单地用“d”来取代“k”,而不 
重打这个词,存在刚好在“k”消失和“d”出现从而填上空隙之间的一个瞬息,随着接 
续着的每一字母(包括“e”)的安置,存在(或者至少有时存在)重排这页以下的波动 
。然后当“d”插进去时又再次重新计算。(呵,现代没有思想的计算是多么的卑贱!) 
不管怎么样,在我面前屏幕上看到的所有字母,随着它的每一秒钟的六十次扫描,仅仅 
是一个电子束的轨迹的缝隙。如果我取走了任一字母并用同一字母取代之,在代换后的 
情形是否一样,或仅仅和原先的不可区分?认为第二种观点(也就是“仅仅是不可区分 
的”)可以和第一种观点(也就是“同样”)相区分似乎是痴人说梦。至少在字母不变 
时可以合理地说这情形是同样的。而等同粒子的量子力学的情形也是如此。把一颗粒子 
用另一颗等同粒子取代时量子态不受丝毫影响。这情形的确被认为和以前的是同样的。 
(然而,正如我们在第六章将要看到的,这一差异在量子力学的框架中实际上不是微不 
足道的。) 
  
  上述关于在一个人体中连续地置换原子的评论,是在经典的而不是量子物理的框架 
下进行的。它是在似乎坚持每一原子的个性有意义的情形下措词的。经典物理在这一描 
述的水平上把原子当作单独物体的近似是足够好的,我们不会错得太离谱。假设原子在 
运动时和它们等同的伙伴分离得相当开,那么由于在事实上每一颗原子的轨道是连续的 
,以至于人们想象能够看守住每一颗并可以协调地认为它们坚持各自的本体。从量子力 
学的观点提到原子的个性只不过是一种方便的说法,但是在刚才考虑的水平上它是一个 
足够协调的描述。 
  
  让我们接受这种观点,一个人的个性和人们想赋予他的物质成份的任何个性无关。 
相反地,在某种意义上,它必须和那些成份的形态,让我们讲在空间或空间--时间中的 
形态有关。(后面还要更多地讲到。)但是强AI的支持者走得比这更远。如果这样一种 
形态的信息内容能被翻译成另一种可能恢复成原状的形式,那么他们就能够宣称,这个 
人的个性必须维持不动。这正如同我刚打的字母序列和我现在于我的文字处理机屏幕上 
看到的展示是一样的。如果我把它们从屏幕上移开,它们被编码成某种微小的电荷位移 
的形式,处在一种和我刚才打印的字母在几何上毫无类似性的某种形态。然而,我可在 
任一时刻把它们移回到屏幕上去,它们在那里正如同没有进行过任何变换一样。如果我 
选择把我才写下的存起来,那么我可以把字母序列的讯息转移到一个以后我可取走的磁 
盘的磁化形态上去,然后关掉机器就中和了在它上面的所有(有关的)微小电荷位移。 
第二天,我可重新插入我的磁盘,复原小电荷位移并在屏幕上正如没有发生过任何事一 
样重新展现字母序列。这对于强AI支持者而言是“清楚的”,一个人的个性可用同样的 
方式处理。所以这些人会宣称,正如在我的显示屏幕上的字母序列一样,如果一个人的 
身体形状被翻译成完全不同的某种东西,譬如说一块铁的磁场,他的个性一点也没损失 
,实际上对他根本没有发生过什么。他们甚至会宣称,当一个人的“信息”处于这不同 
的形式时,他的意识知觉继续存留。一个“人的知觉”在这种观点中实际被当成一段软 
件,而他作为一个物质的人的特殊的显现则被认为是通过他头脑和身体硬件对这软件的 
运算。 
  
  作这些断言的原因仿佛是,不管硬件采取何种物质形式,例如某种电子仪器,人们 
总可以“问”软件问题(以图灵检验的形式),并假定该硬件能令人满意地进行计算以 
获得这些问题的答案。这些答案会和一个人处于正常状态时所回答的相同。(“今天上 
午你感觉如何?”“哦,相当好,谢谢,尽管我有一点讨厌的头痛。”“你对你的个人 
认同感和别的什么有点不对头的地方吧?”“不;你为什么这样讲?这似乎是很古怪的 
问题。”“那么你感到你正是昨天的那个同一的你吧?”“当然是这样!”) 
  
  科学幻想的超距运送机12是一种被频繁讨论的观念。这是作为譬如讲从一颗行星到 
另一颗行星的“运送”手段。所有的讨论都是关心它是否能在实标上做到这样。旅行者 
不用空间飞船以“正常”方式运送其身体,而是从头到脚地被扫描,他身体的每一原子 
和电子的准确位置和完整的特征都被全部细致地记录下来。然后所有这些信息由一电磁 
信号束(以光速)发射到目的地。在目的地把这信息收集到,并作为装配旅行者以及他 
所有记忆、企图、希望和最内心的感情的复本的指导书。至少这就是所期望的,因为他 
的头脑状态的每一细节都被完全忠实地记录、传送和重造了。假如这个机制能成功,则 
旅行者的原版可被“安全地”毁掉。显然的问题是:这真的是从一处到另一处旅行的一 
种方法吗?或者它是否仅仅是制造一个复本而把原先的人杀死?假定这种方法在这框架 
中被证明是完全可靠的,你会准备用这种方法吗?如果超距运送不是旅行的话,那么在 
原则上它和从一个房间走到另一个房间有何不同?在后者的情形,难道不是一个时刻的 
原子简单地为下一时刻的原子提供定位的信息吗?我们毕竟看到了,维持任何特殊原子 
的等同性都是没有任何意义的。原子的任何运动模式难道不就是构成从一处到另一处传 
播的信息的波吗?在描述从一个房间随便遛达到另一房间的我们旅行者的波动传播和发 
生在超距运送机中的有什么本质的区别? 
  
  假定远距运送的确“可行”,那就是说,在一遥远行星的旅行者的复本中他自身的 
“知觉”确实被重新唤醒(假设这是一个具有真正意义的问题)。如果该旅行者的原版 
没有如这个游戏所需求的那样被毁坏,将会发生什么呢?他的“知觉”是否会同时处于 
两个地方呢?(当你听到如下一段话时想像看将会如何反应:“哦,亲爱的,在把你放 
到超距运送机前给你的药已被消耗完了。是吗?那是有点不幸,但是没有关系。无论如 
何,你将高兴地听到,另一个你,呃,我是说真正的你已经安全地到达了金星。这样, 
我们可以把你,哦,我指的是多余的版本,安置在这儿。当然这是完全不痛苦的。”) 
这种情景有一点佯谬的风味。物理学的定律中是否有任何在原则上使得超距运送不可能 
的东西呢?另一方面,也许在原则上没有东西反对以这种手段运送一个人以及他的意识 
,但是所涉及的“复制”过程会不可避免地消灭原来的那个人吗?尽管这些考虑显得很 
奇异,我相信从它们也许可得到某些关于意识和个性的物理性质的东西。我相信它们提 
供了表示量子力学在理解精神现象的某种根本作用的指针。但是我更往前多跨一步。我 
们只有在第六章(参见311页)考察了量子理论的结构后,才能回到这些事体上来。 
  
  让我们看看强AI的观点与远距运送问题有什么关联。我们设想,在这两个行星之间 
的某处有一转换站,在这里把信息暂时存储然后再传送到最终的目的地。为了方便起见 
,这信息不用人的而是用某种磁或电的仪器的方式存储。该旅行者的“知觉”是否会在 
和这一仪器的相关联中呈现呢?强AI的支持者愿使我们相信,事情必须如此。他们说, 
我们想问该旅行者的任何问题,在原则上都可由此仪器答复,“只要”对他的头脑的适 
当活动建立模拟就可以了。该仪器会拥有所有必须的信息,而余下的只不过是计算的问 
题。由于仪器会完全如同旅行者一样地回答问题,那么(图灵检验!)它就是该旅行者 
。这完全回到了强AI的论点,在考虑精神现象时硬件根本不重要。我觉得这一论点是未 
被证实的。它是基于如下的假设,即头脑(或精神)实际上是一台数字电脑。他们假想 
,当一个人思维时并没有引起特别的物理现象,也许头脑真正需要具备特殊的物理的( 
生物的、化学的)结构。 
  
  人们无疑地会(从强AI观点)争论道,所做的仅有的假设是,任何必须涉及的特殊 
物理现象的效应都可由数字电脑精密地仿照。我可以相当肯定,大多数物理学家会论证 
道,在我们现在对物理理解的基础上作这样的假设是非常自然的。我将在后面的章节提 
出我自己持相反观点的原因(我在那里还需要把话题引到为何我相信甚至不必作任何假 
定)。但是,在此刻我们暂且接受这一(普遍的)观点,即所有相关的物理总能由数字 
计算来仿照。那么(除了时间和计算空间的问题外)这唯一真正的假设是一个“行为主 
义”的问题,即如果某物全然像一个意识地知觉的本体那样地行为,那么人们还应该坚 
持说它“感觉”到它自己是那一个本体。 
  
  强AI观点认为,在头脑运行中实际上被涉及的任何“仅仅”是作为硬件问题的物理 
,必须能用合适的转换软件来模拟。如果我们接受这个行为主义的观点,那么问题就归 
到普适图灵机的等价,以及任何算法可的确由这种机器执行的事实,还有头脑按照某类 
算法动作行动的假设。现在到了我要更明白地解释这些迷人的重要概念的时候了。 
  
注 释 
  
  1.例如,参阅伽特纳(1958),格里高里(1981)以及所引用的参考文献。 
  
  2.例如,参阅雷斯尼柯夫和韦尔斯(1984)181--184页。有关计算奇才的经典总结 
参阅罗斯·玻勒(1892)以及斯密斯(1983)。 
  
  3.参阅格里高里(1981)285--287页,格雷·瓦尔特(1953)。 
  
  4.这个例子引用自德尔伯吕克(1986)。 
  
  5.参阅奥柯涅夫(1988)和基奈(1988)。参阅列维更多的有关电脑下棋的情形。 
  
  6.当然,大部分奕棋问题都被设计得使人类很难解决。要去构造一种人类觉得不是 
极难、而现代解决下棋问题的电脑在一千年内也解不出的下棋问题似乎不太困难。(所 
需要的是一个每下一着都要筹划非常多步的、但又是相当明显的方案。例如,已经知道 
一些需要筹划大约200步就绰绰有余的问题!)这提出了一个有趣的挑战。 
  
  7.为了明确起见,我在本书从头到尾地采用了西尔勒的术语“强AI”以表示这一极 
端观点。术语“机能主义”也被经常地用于表示本质上同样的观点,但也许不总是这么 
明确。明斯基(1968),伏多(1983)以及霍弗斯达特(1979)是这类观点的一些倡导 
者。 
  
  8.可从西尔勒(1987)211页找到这种宣称的一个例子。 
  
  9.道格拉斯·霍弗斯达特在对西尔勒的复印在《精神》上的原始论文的批评中抱怨 
道,由于涉及到的复杂性,没有一个人可想象把另外的一颗人脑的整个描述“内在化” 
。的确不能!但是就我所见,这不是问题的全部。人们仅仅关心实行目前要体现单个精 
神事件发生的一段算法的那个部分。这可以是在回答图灵检验问题时某个瞬息的“意识 
实现”,或者它可以是某种更简单的东西。任何这种“事件”是否都需要一段极其复杂 
的算法呢? 
  
  10.参见载于霍弗斯达特和德涅特(1981)368和372页的西尔勒(1980)的论文。 
  
  11.有些关于这类事体博学的读者也许会忧虑符号不同的问题。但是,如果我们在 

进行交换的同时,使其中的一颗电子旋转360°,甚至那个(可争论的)区别也消失了! 
(参见第六章322页的解释。) 
  
  12.参见霍弗斯达特和德涅特(1981)的导言。 
--