西尔“中国之家”中两种论证形式的考察_强人工智能论文

西尔“中国之家”中两种论证形式的考察_强人工智能论文

对塞尔“中文屋”两种论证形式的考察,本文主要内容关键词为:两种论文,中文论文,塞尔论文,形式论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

中图分类号:N02 文献标识码:A 文章编号:1674-7062(2010)05-0036-05

在《心、脑与程序》(1980)一文中,约翰·塞尔(John Searle)首次提出用以批判强人工智能理论①的思想实验——“中文屋”(Chinese Room)。他以罗杰·尚克(Roger Schank)等人构想的“故事-理解”程序②为依托,通过想象可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。具体而言:屋中存有一批中文符号和对应的英文规则书,只懂英文的塞尔按照规则书的要求将屋外传入的中文符号以另一种排序方式传出屋外,但他始终不知道屋外传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。在屋外的观察者看来,塞尔由于理解了中文问题,从而做出了恰当的回答,然而事实上,屋中的塞尔仅仅是按照规则书操作符号,即模拟程序工作,他始终没有理解中文问题。塞尔由此判定“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”[1]167。

一 “中文屋论证”的逻辑结构、要点及两种论证形式

“中文屋”思想实验提出以后,强人工智能的支持者做出了各类回应,如系统回应、机器人回应、大脑模拟回应等③。为应对这些回应,塞尔在保持“中文屋论证”结构及其要点不变的前提下,借助不同版本的“中文屋”,如“内化了”(internalize)的“中文屋”,机器人脑中的“中文屋”,管道工和中文体育馆等,逐一作出了答复。在塞尔看来,各类强人工智能回应并没有撼动“中文屋”的有效性,原因在于它们大多没有真正地触及该思想实验所蕴涵的论证结构。

塞尔将“中文屋论证”的逻辑结构概括如下[2]:

前提:1.脑产生心。

2.语法不足以满足语义。

3.计算机程序是完全以它们的形式的或语法的结构来定义的。

4.心具有心理的内容,具体说具有语义内容。

结论:1.任何计算机程序自身不足以使一个系统具有一个心灵。

2.脑功能产生心的方式不能是一种单纯操作计算机程序的方式。

3.任何其他事物,如果产生心,应至少具有相当于脑产生心的那些能力。

4.对于任何我们可能制作的、具有相当于人的心理状态的人造物来说,单凭一个计算机程序的运算是不够的。这种人造物必须具有相当于人脑的能力。

上述论证结构中实际蕴涵两个方面的论证要点:一个是批判要点,批判将语法等同于语义、程序等同于心灵;另一个是主张要点,主张人工智能事物至少具有大脑产生心灵的因果力。塞尔将其概括为需要辩护的两个重要的命题:其一,人类(和动物)的意向性是大脑的因果特性的产物,这是心理过程同大脑真实因果关系的经验事实。这说明某种大脑过程对于意向性来说是充分的。其二,示例一个计算机程序本身绝对不可能构成意向性的充分条件。[3]417

“中文屋论证”的结构中又蕴涵两种论证形式。塞尔在《“中文屋”中的二十一年》中指出,“中文屋”的有效性始终依赖于它所蕴涵的两个逻辑真理:“语形不等同于语义”及“复制不等同于模拟”,而依据这两个真理,我们又可以从上述论证结构中提取出两种论证形式——逻辑论证和经验论证。

就逻辑论证而言,其有效性依赖于“语法不等同于语义”,它用于支撑“中文屋论证”中的批判要点。可表述为如下推理形式:

前提:1.语法不足以满足语义。

2.计算机程序是完全以它们的形式的或语法的结构来定义的。

3.心灵具有心理的内容,具体说具有语义内容。

结论:程序不是心灵,它们自身不足以构成心灵。

就经验论证而言,其有效性依赖“复制不等于模拟”,它用于支撑“中文屋论证”中的主张要点,可表述为如下推理形式:

前提:1.模拟不等同于复制。

2.大脑具有产生心灵的能力。

3.计算机程序仅仅作为工具对心灵进行模拟。

结论:凡是具有心灵的人造物至少复制等同于大脑产生心灵的能力(因果力)。

二 对“中文屋”两种论证形式的考察

(一)对语形、语义关系下逻辑论证的考察

语形与语义关系问题作为“中文屋”逻辑论证所依赖的逻辑真理,是其有效性的根本保证。塞尔曾明确表示“一台计算机可以在程序中为了诸如理解中文的心智能力而运算步骤,却不理解一个中文单词。论证建基于简单的逻辑真理:句法本身不等同、也不足以形成语义”[1]167。

学界对逻辑论证大体持两类观点:一类是通过回避逻辑论证来否认它的结论④;一类则是通过否定逻辑论证中的某一前提,达到否定其结论的目的。这里我们将重点考察第二类观点,因为它们直接触及逻辑论证的某个前提。

a.丘奇兰德夫妇对逻辑论证的前提1提出了如下质疑:“语形自身既不构成语义也不足以产生语义,这一公理可能是正确的,但塞尔不能理所当然地认为就是如此。”[4]因为前提l并非自明的逻辑真理,它应同其他经验科学问题一样获得实证性检验。据此,他们构想出类似于“中文屋”的思想实验——“光亮之屋”(luminous room):一个手持磁铁棒被关在黑屋子中的人,如果他上下摆动磁铁棒,根据麦克斯韦人造光学理论,摆动过程会散布电磁波圈,因此应当产生光亮现象。然而根据常识,那根摆动着的磁铁棒并不会产生光亮现象。那么,我们能否因此质疑人造光学理论的有效性呢?换句话说,如下论证形式是否有效呢?

前提:1.力既不能构成光,也不足以产生光。

2.电和磁都是力。

3.光的本质属性是亮。

结论:电和磁既不构成光,也不产生光。

在丘奇兰德夫妇看来,答案是否定的,因为根据人造光学理论,屋中的电磁棒摇摆频率低于1 015 Hz,不足以产生光亮现象,因此“光亮之屋”是对光亮现象的错误展现。同时,“力既不能构成光,也不足以产生光”这一常识性的观点,由于被人造光学理论证实为错误的,因而基于这一观点的上述论证形式也是无效的。丘奇兰德夫妇认为“光亮之屋”及其论证的问题也同样适于“中文屋”及其论证,因为语形同语义的关系很可能像磁铁同光的关系那样是一个需要实证检验的经验事实。

然而,上述反驳可能得到如下辩护。首先,在塞尔看来,语形同语义的关系问题不是经验性问题,不能获得实证性检验,因为作为科学研究的对象必须满足下述条件:不论它在本体论上是主观的(如疼痛)还是客观的(如山脉),在认识论上必须是客观的,是观察者独立的,必须是自然世界的内在特征。然而,塞尔认为,语形却是观察者相对的,不具备本体论地位,从而无法获得认识论上的客观性。其次,塞尔认为,具有第一人称本体论地位的心理状态与具有第三人称本体论地位的光亮现象不同。就心理状态而言,直观经验足以作为它存在与否的评判依据,因为“观察的本体论——与它的知识论相对——正是主观性的本体论”[1]84,而对光亮现象而言,它自身存在着现象与本质,直观与事实之间的差别,因而可能造成像光亮之屋那样对光亮现象的常识性误判。

b.拉里·豪斯(Larry Hauser)对逻辑论证中前提2提出质疑。他指出心灵状态应等同于过程状态,即等同于正在执行的程序,而非静态的程序。根据这一解释,逻辑论证中的前提2应当被修正为“过程是形式”而非“程序是形式”,而前者显然是错误的。豪斯认为“……惰性实例和动态实例的差别不是句法的,作为过程的特性不是纯粹形式的或者语形的,而是包含了非语形的因素——动态因素”[5]127。

然而,豪斯并没有认识到“中文屋”思想实验情景是涉及一个程序的运行的[5]36。屋中的塞尔依照规则书执行符号操作的过程就是程序动态的执行过程。塞尔曾明确指出“程序同书籍是有所不同的,书籍是纯粹静态的,符号只是附着在纸上,而计算机则相当的活跃,它可以模拟智能行为,而书籍不能”[6]45。在塞尔看来,程序和书籍唯有一点相同,即它们所蕴涵的意义都是人所赋予的,因而是观察者相对的,不具备本体论地位,也就不可能实现心智现象。

(二)对模拟、复制关系下经验论证的考察

就心脑关系而言,塞尔认为“意识状态完全是由大脑中的较低层次的神经生物学进程所引起的,因此,意识在因果方面是能够被还原为神经生物学进程”[7]101。就“模拟不等同于复制”而言,塞尔将其作为自明的逻辑真理。“你可以模拟人类心灵的认知过程就像你可以模拟暴风雨、五级火警、消化过程或者其他可以被你详细描述的东西。但是,如果据此你认为一个模拟意识的系统具有心理状态,那么这就像你认为模拟消化的计算机可以真正地消化啤酒和比萨一样是荒谬的。”[5]52程序之所以只是对对象的模拟,是因为“对于模拟来说,你需要的只是正确的输入和输出,以及处在中间把前者转化为后者的程序,这就是计算机在做任何事情时所作的一切”[3]423。同时,“无论大脑生成意向性时所做的是什么,并不存在于它示例计算机程序的过程中”[3]424。因此,塞尔主张“如果有人想人工制造意识,很自然的方式是尝试去复制像我们这样的有机体的意识的神经生物学基础”[1]80。

结合上述观点及一些哲学家对经验论证的质疑,可以借助以下几个问题考察经验论证的有效性。

a.模拟和复制只是在精确程度上有所差别吗?

安德森(Dayid Anderson)认为“中文屋”只是以直观的方式区分了模拟和复制,而一旦在直观上无法区分模拟物与被模拟物的话,那么模拟物就是被模拟物。例如,程序对火灾的模拟,如果在火焰、烧伤者及财产遗失等细节方面同真实火灾无法区别,那么,模拟火灾就是真实的火灾,而这对模拟心智的程序同样适用。因此,在安德森看来,外在行为表现上的无差别确保了内在心理状态的无差别。

然而,“模拟不等同于复制”在塞尔那里具有不同的含义:从本体论角度讲,即就“心理状态是什么”而言,内在的无差别确保了外在的无差别。换句话说,只有等效地获得大脑产生心理状态的因果力时,事物的“类人行为”才可以真正地获得心理学上的解释;而从认识论角度讲,即就“心理状态是否存在”而言,则是由内在的无差别同外在的无差别,即等效的生物性因果力同相似的外在行为表现共同确保。由此,塞尔得出了“解决他心问题的原理:同因同果以及相似原因相似结果”[1]21的结论。可见,由于忽视了心理状态的内在差别,行为主义式的认识论观点是不充分的,更何况人工智能的核心问题是本体论而非认识论问题。总之,模拟和复制不是精确程度上的差别,而是本体论视角同认识论视角上的差别,是如何看待大脑因果力方面的差别。

b.为什么程序无法实现大脑所具有的生物性因果力呢?

丹尼特(Daniel C.Dennett)承认程序本身没有因果力,但当这个程序被硬件物理地实现时则可以产生多种因果力,这些因果力实质上就是控制力(如程序可以控制炼油),它是真实存在的。因此,如两个系统拥有同样的控制力,且能展示出同样的行为,那么一个拥有心理状态,另一个也一定具有。[8]56

然而,在塞尔看来,两个基于不同内在原理的系统同样可以产生相同的外在效果(或控制力),如蒸汽机车和电动机车,尽管基于不同的机械原理,但它们可以具有等效的牵引力。丹尼特的问题在于他只关注系统的外在效果和“控制力”,却忽略了它所依据的内在原理。在塞尔看来,程序根本无法为真实的、内在于物理的功能机制提供任何现象上的因果性说明,因为“0和1没有因果能力,它们甚至不存在,除了在观察者的眼中。执行的程序除了执行媒介的能力之外没有因果能力,因为程序没有超越执行媒介的真实存在,没有本体论”[1]180。

c.大脑产生心理状态的因果力是最低限度产生心理状态的因果力吗?

沃菲尔德(Ted A.Warfield)认为人类大脑具有的因果力未必是最低限度的产生心灵的必要条件。因此,他支持一种对因果力的弱的阐释,即“不会排除具有真实心灵的机器人的可能性,而它却具有比大脑因果力小得多的因果力”[9],而反对塞尔的强的阐释,即“认为大脑的全部因果力就是产生心灵的充分必要条件”[9]。因为,塞尔在没有论证产生心灵的最低限度的因果力为何的情况下,就盲目断言这种因果力就是大脑的全部因果力。

值得注意的是,大脑的因果力对塞尔来说只是一种理论上的承诺:由于大脑事实上产生了心理状态,因而产生心理状态的因果力,不论大于或等于最低限度的因果力都必定存在于大脑这一生物组织之中。因此,“因果力到底为何?”这一问题对塞尔来说“依然是一个开放性的问题,直到我们能够弄清大脑如何产生意识或意向状态”[5]57,而这一任务最终要靠未来神经生物学而非计算机科学的发展来完成。

d.究竟在什么意义上谈论大脑的因果力?

许多强人工智能者并不排斥对生物性大脑的研究,尤其是联结主义者(如丘奇兰德夫妇)甚至设想凭借并行运作的程序模拟大脑中全部神经触发序列从而实现人工智能。然而,这同塞尔对大脑因果力的理解不同。

首先,塞尔认为大脑生成心灵的因果力是一个自下而上,由微观到宏观的过程。而强人工智能者一般将心理因果关系视做宏观层面的平行关系。其次,塞尔强调的因果力始终依附于其承载者——大脑。他甚至认为“意识的成因力量与其神经生物学基础的成因力量完全是一回事”[7]113。而强人工智能者在“多重实现原则”的驱使下,将因果功能视做独立于承载者的状态,这就造成“同一个程序可能实现于不具有意向形式的各种难以置信的事物之中”[3]423。再次,塞尔主张意识可以作为因果还原,但是不能作为本体论还原,因为后者将取消掉还原对象的本质属性,而强人工智能者的核心主张——心灵即程序,正是一种本体论还原,它在还原中丢掉了主观性这一心灵的本质特征。最后,意识作为大脑的高级属性,具有真实的因果力,而程序本身因为是观察者相对的,因而不具有任何因果力。

三 对两个逻辑真理的再思考

(一)对语义问题的再思考

“中文屋论证”的两种论证形式及其所维系的论证要点之间可能存在着某种不融贯。具体而言,逻辑论证试图表明语形不足以构成语义,从而否定强人工智能理论;而经验论证则主张人工智能物至少需要复制等同于大脑的生物因果力。如果二者相互融贯一致,则结论应当是大脑的生物性因果力既是心理状态产生的充分条件,又是产生心理状态语义特征的充分条件。然而,就“中文屋论证”而言,一方面,它没有对人工智能在“语义获得”问题方面给予任何正面性的、实质性的回答;另一方面,就“中文屋论证”所要表达的主张要点来看,它只是在必要而非充分意义上谈论因果力。

这可能涉及三个方面的原因:首先,就语义问题来看,塞尔既主张“表征是通过它的内容和模式,而不是通过它的形式结构来定义的”[10]12,同时坚持“心理状态由生物现象引起,并反过来引起其他生物现象”[10]271。然而,塞尔始终没有解释神经生物过程如何保证意向状态的先在结构(内容加模式)这一问题。如果语形是观察者相对的,因而不具有本体论地位,那为何语义就具有呢?如果对“语义的自然化问题”不能作出合理的解释,那么“中文屋”依然无法摆脱强人工智能理论所遭遇的困难。其次,即便上述问题获得了证明,经验论证依然面临“语义获得问题”的困扰。因为经验论证蕴涵着一种内在论观点,即心理状态的语义性全部由大脑内在状态(因果力)决定。然而,一般认为,语义问题要宽于大脑神经生物问题,因为生物性能力不同于生物性能力所具有的社会特征。当承认大脑的低层神经生理状态产生高层心理状态时,只能将其看做是所有心理状态获得实现的最为基本的生理功能上的保证,而最终意向状态具有何种语义内容,如何获得实现这样的问题。再次,“中文屋”的批判要点和主张要点不对称。根据《心、脑与程序》前言所述,塞尔最初是在“充分条件”意义上表述两个论证要点的,即批判的是程序自身不是意向状态的充分条件,主张的是某种大脑过程是意向性的充分条件。然而我们看到,经验论证事实上却是在“必要条件”意义上支撑其主张要点的。而这一解释同强人工智能主张相比要弱得多。因此,结论可能是“中文屋论证”在批判方面或许有效,然而就其主张方面——语义获得方面的解释而言,则可能无法令人满意。

(二)对大脑因果力的再思考

正如前文所述,塞尔对大脑生物性因果力的论述只是一种理论构想,在他否认抽象因果层面的同时,对大脑因果力方面的叙述也并不明确,而是寄希望于未来的神经生物学发展。不仅如此,塞尔在对大脑因果力的有限的解释中也存有某种矛盾。

根据塞尔的观点,生物性因果力不同于功能性因果关联,前者强调同承载者的依附性关系,并且具有本体论意义上的实在性,而后者作为抽象性关系只是观察者相对的。然而,塞尔依然试图维系“多重实现原则”,从而将复制大脑因果力作为实现人工智能的必要条件。这就可能会引发下述质疑:内在依附于大脑的因果力如何可能同大脑分离开来作为独立的复制对象而存在呢?如果塞尔承认大脑的因果力是可以分离复制的,那么,这种分离出来的因果力的本体论地位又由谁来保证?这种因果力岂不依然是抽象的和自因的,以致于同样陷入了强人工智能的种种困难?然而,如果我们根本就不试图分离大脑的因果力,那么,人工智能最终的实现途径就只能是完整地复制人的生物性大脑,而这将可能造成“沙文主义”⑤的错误。可见,这里的问题不在于大脑的因果力是否是人工智能实现的必要条件,而在于塞尔将大脑的因果力作为复制对象来对待。因为一旦因果力作为独立的复制对象而存在,那么它与承载者之间的依附关系就会被取消,同时,未来神经生物学也因此可能失去了它在人工智能研究中的核心地位,而这同“中文屋论证”的主张要点相违背。

总之,塞尔不应将大脑的生物因果力作为可以分离复制的对象来对待,因为生物性因果力就是具有特殊结构和功能属性的事物所具有的全部内在特征。这种因果力绝不能像贴标签那样复制给某个系统,而应始终是系统内在具有的或生成的。

注释:

①强人工智能(Strong AI)与弱人工智能(Weak AI)相对:后者只强调计算机在实现人工智能方案时的工具意义,而前者则认为通过编制适当的计算机程序可以真正地实现心智状态,即将程序等同于心灵。

②“故事-理解”程序试图模仿人类理解故事的能力,这一能力最大特点是当某人被问及某个故事中一些没有直接提及的信息时,它也能够根据故事情景予以推断。据此,尚可等人认为具有“故事-理解”脚本的机器真实地具有某种认知能力。

③“系统回应”认为屋中的塞尔只是部分,而“中文屋”作为整体具有理解力,参见丹尼特(Daniel C.Dennett)的《计算机神话:一次交流》(1982);“机器人回应”认为与环境互动具有类人行为的机器人具有理解力,参见哈纳德(Stevan Harnad)的《心灵、机器和塞尔》(1989);“大脑模拟论”认为模拟懂中文的人的大脑神经触发序列的程序具有理解力,参见丘奇兰德夫妇(P.M.Churchland和P.S.Churchland)的《机器会思维吗?》(1990)

④系统回应、机器人回应以及联结主义的支持者多持有第一类观点,他们通过转换视角,添加问题或构建新理论模型等方式回避逻辑论证的责难,从而否定逻辑论证的结论。

⑤沙文主义的错误是指可能将那些原本具有心理状态的事物排除在理论解释和构想之外。

标签:;  ;  ;  ;  

西尔“中国之家”中两种论证形式的考察_强人工智能论文
下载Doc文档

猜你喜欢