书城哲学耶鲁大学公开课:死亡
10348200000006

第6章 灵魂存在的论证(2)

你可以想到,二元论者会反驳回来,再博一回。他们可能会指出,在热能追踪导弹和机器人的例子中,虽然它们在完成任务,而且是有目的地行动,但它们只是在服从命令。这命令来自某个外在于它们的东西,有程序地控制着机器人和导弹。所以,我们不是也需要某个肉体之外的东西,来给肉体编制程序、下命令或者控制肉体吗?那可能就是灵魂。

这个新版的论证提出了一个有趣的问题:一定要由某个肉体之外的东西来控制肉体吗?假定我们认为答案是肯定的,这就说明我们必须有非物质的灵魂吗?根本不是!为什么不说人就像机器人一样,从某种完全在我们之外,而不是我们一部分的东西那里得到的命令呢?毕竟,根据那种常见的宗教观点,上帝用尘土造了亚当,亚当不过是某种机器人。上帝把气吹到亚当体内,这就像开动了机器人,也许人类只是受他之外的上帝指挥的机器人。但是这并不等于说,我们比机器人更高端。我们可能仍是物理事物。

这是一种可能的回应。另一种稍微不同的可能回应是说,那些命令(或者至少最初的命令)可能是内置的,就像机器人的命令也可以是内置的一样。这是怎么一回事?我们这次不讲宗教故事了,反而讲起关于进化和生物学的更复杂的故事。我们要说一些关于基因、进化、繁殖之类的事,最后以某种先天心理程序如何传递下去的事收尾。细节很复杂,但是基本观点很简单:婴儿出生时就带有内置的命令,引发各类物理过程,一套先天的心理使我们开始学习和适应——有目的地移动。所以,我们即使(最初)需要某种指导,但所有行为只是某种复杂的物理过程的结果。

这一论证很快就变得非常非常复杂了,笃信灵魂的人毫无疑问会抗议:“听着,我们可不是机器人!我们不只知道听从脑中设定的程序行事。我们有自由的意志,机器人可没有。我们肯定比机器人高端多了,我们不可能只是什么物理事物。”

这个论证有趣极了,我认为它也是一种新的论证。刚开始时我们的观点是,为了解释人体为何有生命,或者为何我们能有目的地、非随机地移动,你需要诉诸灵魂。显然,为了做到这点,你不需要诉诸灵魂。我认为,诉诸正常运行的物理肉体,就足以解释有无生命的肉体的差别,以及我们的肉体为何非随机地移动了。如果大脑是我们的CPU,那么我们就会审慎地、有目的地行动,就像机器人一样。所以,我认为最初的论证不那么令人信服。

但我们仍有可能会问,这个新的论证怎么样?它没有主张我们需要用灵魂来解释肉体的生命,但当我们转到关于F特性新的可选项时,它会怎样?要是我们主张,为了解释自由意志,我们需要灵魂呢?

这肯定是一个值得认真思考的论证,但是眼下我们暂不考虑,稍后再谈。

首先,让我们浏览一下其他可能被诉诸的F特性的可选项。假如有人说:“瞧,为了解释为何肉体能非随机地四处移动,我们并不需要诉诸灵魂。但是人有一种纯粹肉体没有的特殊能力,它是物理主义者无法解释的,这就是思考的能力,这就是推理的能力。人有信念和欲望。根据他们实现其欲望的信念,他们能制订计划。他们有策略,他们推断该做什么。信念、欲望、理性、策略、计划,这些跟我们紧密相关的一系列事实都需要诉诸灵魂来解释。没有任何纯粹的机器能相信,能有欲望,能推理。”

假定无可争辩的是,我们确实有信念和欲望,我们确实能推理和思考、制订计划并加以执行。那么,问题就是,真的什么机器都做不到这些吗?显而易见,当限于简单的机器时,你这样认为是不足为奇的。很显然,对于许多机器来说,我们好像不能自然地把信念、欲望、目标或思考能力赋予它们。比如,我的割草机并不想去割草。虽然它确实能割草,但它没有相关的欲望和信念。它不会自己想着:“我该如何割到那些躲避我的草叶子?”所以很明显地看出,为何我们很容易就说,纯粹的机器不能思考、推理,也没有信念和欲望。

但是现在,这种论证不像三四十年前那么令人信服了。在电脑装有十分复杂的程序的时代,我们能更自然地用信念、欲望、推理、计划等词语来谈论机器,或至少是某些机器。

比如,假如我们有一个会下棋的电脑。我家的电脑就有一个可以人机下棋的程序。我的棋艺很差,这个程序闭着眼就能打败我。假如我走象,我的电脑走它的后,对这台电脑我们会怎么说?为什么这台电脑会走它的后(或者虚拟的后)?我认为很自然的说法是:它担心它的王暴露了,它在通过拿住我的象来努力阻挡我。我们将这么来说会下棋的电脑。

想想我们在干什么,我们把欲望赋予了这台电脑。我们在说,它有着赢棋的终极欲望。它还有各种次级欲望,比如保护它的王,抓获我的象;另一种次级欲望是持续地保护各种其他棋子。它还有如何去做的信念——通过阻挡特定的路线或吃掉我的其他棋子。它还有如何实现其目标的信念,然后它把这些信念和欲望化成行动,对我的走棋做出合理的反应,步步为营。

所以,我们会说下棋的电脑确实有信念,这看起来好像很顺其自然。它确实有欲望,它确实有目标,它确实能思考。当然,它的理性是有限的,它只会下棋。但是,我们很容易设想自己的电脑或一台更强大的电脑,可以同时运行许多其他程序,这就扩大了其思考和推理的范围。用电脑拥有信念、欲望、思考、策略等词语来描述,看上去很自然。然而,我们用严格的物理术语就能解释这一切。我们不会很容易就说,这台电脑有一个非物质的部分!所以,即使是在解释思考、推理和计划时,好像我们也并不需要诉诸灵魂。

当然,作为一位二元论者,你完全可以这样回应:“虽然我们把电脑人格化了,也就是把它当成好像拥有信念、欲望之类的东西,但它其实并不真的具有相关的信念和欲望,因为它任何信念和欲望都没有,因为任何物理对象都没有信念和欲望。”

对此我只想说,这只是一种偏见吧?确定无疑的是,如果我们坚持说物理对象没有信念和欲望等的话,那结果就是,当我们不禁把信念和欲望赋予我那台会下棋的电脑时,就陷入了一种幻觉。一旦我们假设纯粹物理的对象没有信念和欲望,结果就是这样的。但有什么理由说它没有任何信念和欲望?拒绝把信念和欲望赋予那台电脑有何依据?这一点儿也不清楚。

至少在典型的情况中,有这样一种可能,欲望好像跟情绪紧密相连。比如下棋中,在有望抓住我的后或击败我时,你会很兴奋;当你的棋子受到威胁时,你会很担心。类似地,当你的女朋友或男朋友说爱你时,你也会变得兴奋,心脏怦怦地跳;当你考试成绩很差或者工作的估值很低时,你的胃里会感到那种下沉的感觉。

也许我们应该说,欲望有两个侧面、两个方面。应当承认,欲望有一方面是纯粹行为的(behavioral)。普遍来说,我们的精神生活(mental life)一方面以纯粹行为的角度呈现出来。有目的地移动棋子就与这个部分有关,准确地再现世界并理性地做出反应也与这个部分有关。或许,机器也能这样做。但是我们精神生活的另一方面,即情绪(emotional)方面,跟我们的欲望尤其相关,这个部分机器没有,但显然我们有。

所以,如果我们想说机器不能思考,不能拥有精神生活,也许我们真正的意思是,机器不能感觉到任何情绪性的东西。因此,我们要区分一下。我们不妨先承认,可以合理地谈论行为学术语能够诠释的信念、欲望和推理。这基本上就是准确再现一个人的环境,然后对此种再现合理地做出反应的问题,或许电脑和机器人也能做到这点。但是,我们的精神生活显然还有一个方面——情绪方面,对此我们有理由怀疑电脑是否能感觉到任何东西。机器人能恋爱吗?它会感到害怕吗?

要记住,我们的问题是:关于我们,是否存在某种只有诉诸灵魂才能解释的东西?物理主义者说不存在,二元论者说存在。但我们现在看到,如果我们问的特性是我们的精神生活中能按行为主义术语诠释的方面,而这个方面连下棋的机器人可能都有(在有限的程度上),那么我们就无法非常令人信服地证明二元论。物理主义者可以坚持说,对于我们精神生活的行为方面,确实可以从物理主义的角度来加以解释。

但是,我们可以加深或者修订一下这个论证,说清楚我们真正想弄明白的是我们精神生活的情绪方面。一个纯粹物理的东西能不能坠入爱河?它会感到害怕吗?它能希望什么东西吗?机器人真的能感受到情绪吗?也许不能。

现在我们是这么论证的:人能感觉到情绪。我们能爱,我们会害怕,我们会担心,我们会兴高采烈,我们会变得抑郁。如果你想一想的话,显然机器人做不了这些。物理的事物感觉不到情绪,所以我们必然不只是拥有物理的东西。

实际上,我认为现在可以提出,跟电脑下棋的例子不同,目前没有任何机器能够拥有感受。但问题不在于我们是否有这样的机器,问题是:我们是否可能拥有这样的机器?会不会有一种可以感觉到某种东西、拥有情绪等的机器?

让我们看看科学幻想,想一想科幻电影里展示的或科幻小说中描写的机器人和电脑。我小时候有一个电视剧叫《迷失太空》(Lost in space),说的是一群人跟他们会说话的机器人一起,逃到了另一个星球。因为这是一个电视剧,所以每一集中都会出现某种新的激动人心的危险。机器人会嗖嗖嗡嗡地响起来,喊道:“危险,威尔·罗宾逊!危险,威尔·罗宾逊!”好像机器人感到了担心。

还有一个更新的例子。你也许读过道格拉斯·亚当斯的书,《银河系漫游指南》(The Hitchhiker's Guide to the Galaxy)及其续集。书中有个机器人叫马文,它很忧郁。马文很聪明,它思考宇宙,认为活着没有意义,表现得极为沮丧。有一次,它跟另一个机器人交谈,还使那个机器人也沮丧了起来。(实际上,那个机器人沮丧得自杀了!)在想到这个例子时,好像把“沮丧”一词用在马文这个机器人身上是很自然的事情。它的表现确实如此。

我最喜欢的例子是《2001:太空漫游》(2001:A Space Odyssey)中的电脑哈尔。(如果你没看过这部电影,我要提醒你:我会透露核心情节。所以,请谨慎阅读。)

《2001:太空漫游》给了我们一个暗示,其他星球上有生命。刚刚在月球上发现的一个神秘的黑色物体向木星发出了一个无法破译的无线电信号,所以人类向木星派了一艘宇宙飞船去调查。在飞船上,有一个叫哈尔的电脑程序,协助运行飞船。大部分人类宇航员在漫长的飞行中冬眠着。哈尔的目标是确保成功完成任务,但是哈尔自己寻思——我认为这很合理——人类经常把事情搞砸,既然这是一个很重要的任务,哈尔决定杀死人类,以确保他们别把事情搞砸了。有一位叫戴夫的宇航员发现了这一阴谋,他试图去阻止哈尔。他采取了他唯一能够抵御哈尔的措施,即关闭程序,有效地杀掉哈尔(如果可以这么说的话)。同时,在这一切发生的时候,哈尔跟戴夫相互交谈。哈尔意识到了正在发生的事情,竭力阻止戴夫,但没有成功。当戴夫开始关闭哈尔的电路时,哈尔对他说:“我很害怕。我很害怕,戴夫。”

哈尔怕的是什么呢?它怕死,好像我们可以很自然地把害怕赋予哈尔。哈尔的做法完全是一个人感到害怕时所做的。哈尔有理由感到害怕,它做出了相应的行动。它对我们说,它感到害怕。我们好像可以顺其自然地说:哈尔很害怕。

你可以继续举出类似的例子。当然,这些都是科幻小说,但是我们能毫无困难地理解这些例子,想象它们。我们不会摊开手说:“哈尔感到害怕,这是什么意思?马文很沮丧,这是什么意思?《迷失太空》中的机器人很担心,这是什么意思?”我们可以坚持认为,机器人和电脑不能有情绪;但是这些例子好像说明了:它们有。

但显然,我们没有什么特别的理由,认为这些例子中涉及了什么非物理的情况。这里只有一块块的金属、电线和电路,它们都只是物理对象。于是,我们好像应该说:“为了解释情绪和感受,我们不需要去诉诸灵魂。纯粹的物理对象也有情绪和感受。所以,我们仍然没有理由去设定灵魂的存在。”

对此二元论者会如何回应呢?我想最佳反应是区分感受(feeling)的两个不同方面,也就是情绪的两个方面。首先,又是行为方面。以害怕为例,害怕的行为方面是:当你意识到环境中的某个东西对你形成危险时——它可能会伤害你或杀死你——就会做出相应的反应,采取行动来反抗威胁。你试着去消除、化解危险。简单来说,这只是一个拥有相关的信念、目标、反应和计划的问题,而我们已经看到,下棋电脑也能做这些事情。这是情绪的行为方面。我们好像可以合理地认为,机器人也能做到,物理对象都能做到。

但是,二元论者的回应关键之处是,情绪和感受还有另外一个方面,即感知(sensation):它感觉如何。毕竟,这才是我们称之为感受的原因。除了发生一些行为之外,我们还有内心感觉。