跳至内容

心智的计算模型

📝 认知科学的主导隐喻是:心智是一种信息处理系统(information processing system)——接收输入(感觉),经过内部处理(思维),产生输出(行为)。这个隐喻自1950年代以来极具生产力,催生了大量的理论和实验发现,但它也面临着来自联结主义、具身认知和意识研究的根本性挑战。

图灵机与心智

计算主义(computationalism)的哲学根基可以追溯到 Alan Turing(艾伦·图灵,1912-1954)对"可计算性"概念的数学分析。1936年,Turing 在论文《论可计算数》中提出了图灵机(Turing Machine)的概念——一台理想化的机器,具备一条无限长的纸带(存储)、一个读写头(处理器)和一套有限的规则(程序)。Turing 证明了一个惊人的结论:如此简单的机器原则上可以计算任何可计算的函数——一台通用图灵机(Universal Turing Machine)可以模拟任何特定的图灵机。

这个数学结果对心智研究的影响是深远的。如果通用图灵机可以执行任何形式的计算,而如果人类的心智也在进行某种形式的"计算",那么原则上心智的运作可以被一台适当编程的机器所模拟——这就是强人工智能(Strong AI)假说的逻辑起点,也是计算认知科学的理论基础。

Turing 本人在1950年的论文《计算机器与智能》中明确提出了心智可以被机器实现的可能性,并设计了著名的图灵测试作为判断机器是否具有智能的操作性标准。但 Turing 同时也预见了这一想法会遭遇的反对——他在论文中逐一回应了九种可能的反驳,包括神学反对(“思维是灵魂的功能”)、数学反对(基于 Godel 不完备定理的论证)和意识反对(“机器不能真正感受”)。这些反对至今仍然是活跃的哲学争论。

符号主义:经典人工智能

GOFAI 的核心纲领

基于计算隐喻,1950年代至1980年代的主流人工智能研究采用了所谓的符号主义(symbolicism)或经典人工智能(Good Old-Fashioned AI, GOFAI——这个略带讽刺的名称由哲学家 John Haugeland 在1985年提出)路径。

GOFAI 的核心假设是物理符号系统假说(Physical Symbol System Hypothesis, PSSH),由 Allen Newell(纽厄尔)和 Herbert Simon(西蒙)在1976年明确表述:一个物理符号系统——一个能够创建、修改、复制和销毁符号结构的系统——具有进行一般智能行动的充分且必要的手段。换言之:智能 = 符号操作。如果这个假说是正确的,那么任何智能行为(无论是人类的还是机器的)都可以被描述为对符号结构的操作,而任何能够进行适当符号操作的系统(无论其物质基底是碳基的大脑还是硅基的芯片)都具有智能。

GOFAI 的典型研究成果包括:逻辑理论家(Logic Theorist, 1956)——能够证明《数学原理》中某些定理的程序;通用问题求解器(GPS, 1957)——通过"手段-目的分析"(means-ends analysis)来解决各种形式化问题的程序;SHRDLU(1970)——Terry Winograd(特里·维诺格拉德,1946-)开发的自然语言理解系统,能够理解关于"积木世界"的英语指令并执行操作;MYCIN(1976)——用于诊断血液感染疾病的专家系统。

符号主义的成就与瓶颈

GOFAI 在某些领域取得了令人瞩目的成功——特别是在形式推理、棋类博弈和特定领域的专家系统方面。Deep Blue(深蓝)在1997年击败国际象棋世界冠军 Kasparov 被视为 GOFAI 的巅峰成就之一。

但 GOFAI 也遭遇了严重的瓶颈。常识问题(common sense problem):人类轻而易举的常识推理(如"如果把一杯水倒扣过来,水会洒出来")对 GOFAI 系统极为困难——因为常识涉及海量的隐含知识,难以被形式化为明确的规则。Hubert Dreyfus(休伯特·德雷福斯,1929-2017)在《计算机不能做什么》(What Computers Can’t Do, 1972)和《计算机仍然不能做什么》(1992)中系统性地批判了 GOFAI,论证人类智能在根本上不是规则的应用,而是一种植根于身体经验和社会实践的技能性知识——这种知识无法被完全形式化。

框架问题(frame problem)是 GOFAI 面临的另一个严峻挑战。当一个动作发生时(如"推翻一杯水"),哪些事物发生了变化(水的位置、桌面的状态),哪些没有变化(房间的温度、桌子的颜色、窗外的天气)?对人类来说这是不言自明的,但对基于符号规则的系统来说,为每个动作指定所有不变的条件是一个组合爆炸的噩梦。Daniel Dennett(丹尼尔·丹尼特,1942-2024)在1984年的论文《认知轮》中用一个生动的寓言说明了这个问题:一个机器人需要从一个房间取出一辆手推车,但手推车上有一颗炸弹。第一代机器人取出了手推车——连同炸弹一起。第二代机器人在执行任何动作前计算所有可能的附带效果——它在房间外站着不动,因为需要计算的事项是无穷的。第三代机器人被设计为忽略"不相关"的信息——但如何确定什么是"不相关的"本身就需要智能判断。

Fodor 的思维语言假说

Jerry Fodor(杰里·福多,1935-2017)的思维语言假说(Language of Thought Hypothesis, LOTH)是计算主义在心智哲学中最系统的表述。Fodor 在1975年的《思维语言》(The Language of Thought)中提出:思维发生在一种内部的"心灵语言"(mentalese / lingua mentis)中——这种语言具有类似自然语言的组合结构(主语、谓语、逻辑联结词),但不是任何特定的自然语言。

Fodor 的论证核心是思维的系统性和组合性。思维是系统性的(systematic):一个能够思考"小明爱小红"的心智必然也能思考"小红爱小明"——这种系统性需要一种具有组合结构的表征系统来解释。思维是组合性的(compositional):复合思想的内容由其组成部分的内容和组合方式共同决定——“猫追狗"和"狗追猫"包含相同的成分,但因为组合方式不同而有不同的意义。思维是生产性的(productive):人能够思考无限数量的不同想法——这需要一个有限的基本符号集加上有限的组合规则,就像自然语言中有限的词汇加上有限的语法规则可以产生无限的句子。

Fodor 还提出了心智模块性(modularity of mind, 1983)理论:心智不是一个统一的通用处理器,而是包含多个专门化的模块(modules)——每个模块处理特定类型的信息(如视觉模块、语言模块、面孔识别模块)。这些模块是信息封装的(informationally encapsulated)——一个模块的运作不受其他模块中的信息的影响。视错觉是模块性的经典证据:即使知道 Muller-Lyer 错觉中的两条线是等长的,视觉模块仍然"看到"它们不等长——因为视觉模块的运作不受高层知识的影响。

中文房间论证:完整展开

Searle 的原始论证

John Searle(约翰·塞尔,1932-)在1980年的论文《心智、大脑与程序》中提出了中文房间(Chinese Room)思想实验——这可能是人工智能哲学中最著名也最具争议性的论证。

设想一个完全不懂中文的英语使用者被关在一个房间里。房间里有一本详尽的规则手册(用英语写成),告诉他:当从门缝塞入某些中文符号时,应该按照特定的规则查找并组合其他中文符号,然后从门缝塞出去。如果规则手册足够详尽(相当于一个完美的中文处理程序),那么从外部看,这个房间就像是一个真正理解中文的系统——它对中文问题给出了恰当的中文回答。但房间里的人不理解一个中文字——他只是在机械地操作符号。

Searle 的结论是:语法(syntax)不等于语义(semantics)。计算机所做的一切都是语法操作——按照规则操作符号。但理解需要语义——需要知道符号意味着什么。因此,无论计算机程序多么复杂,它都不能真正"理解”——它只是在模拟理解的外部行为。

主要反驳与Searle的回应

中文房间论证引发了大量的哲学讨论。最主要的反驳包括:

系统反驳(Systems Reply):房间里的人不懂中文,但整个系统(人 + 规则手册 + 房间)懂中文——就像大脑中没有一个单独的神经元懂语言,但整个大脑理解语言。Searle 的回应是:让那个人把规则手册全部背下来、在头脑中完成所有操作——现在整个"系统"就是这个人本身,但这个人仍然不理解中文。

机器人反驳(Robot Reply):如果中文房间不是一个封闭的符号操作系统,而是安装在一个能与世界互动的机器人身上呢?Searle 的回应是:给机器人加上传感器和效应器并不改变问题的本质——机器人内部仍然只是在按规则操作符号,只是现在有些符号来自摄像头的信号而非门缝塞入的纸条。

大脑模拟反驳(Brain Simulator Reply):如果程序不是一套任意的规则,而是精确模拟了中文使用者大脑中每个神经元的活动呢?Searle 承认这是最强的反驳,但仍然坚持:模拟一个过程不等于复制该过程——模拟暴风雨不会让人淋湿,模拟消化不会产生营养。

其他意识反驳(Other Minds Reply):判断其他人是否"理解"时,唯一的证据也是外部行为——因此如果中文房间的行为与真正理解者完全相同,就没有理由否认它"理解"。Searle 的回应是:他对其他人有心智的信念不仅基于行为,还基于类比推理——其他人的大脑结构与自己相似,因此可能产生类似的主观体验;但计算机的"硬件"与大脑完全不同,这个类比不成立。

中文房间的当代意义

中文房间论证在大语言模型(LLM)时代获得了新的紧迫性。GPT 等系统在本质上就是一个极其复杂的"中文房间"——它们按照统计规则操作语言符号,产生了令人印象深刻的"类似理解"的输出。Searle 的论证如果成立,意味着无论这些系统变得多么强大,它们永远不会真正"理解"语言——它们只是非常擅长模拟理解。

但批评者指出,Searle 的论证预设了"理解"有一个清晰的定义——而实际上"理解"是一个程度概念,而非全有全无的状态。一个人可以"部分地"理解一首诗、“表面地"理解一个物理定理、“深刻地"理解一位朋友的感受。如果理解是一个光谱而非开关,那么LLM可能处于这个光谱上的某个位置——不是零,也不是人类水平,而是某种中间状态。

联结主义的反命题

从符号到网络

1980年代兴起的联结主义(connectionism)对符号计算主义提出了根本性的替代方案。联结主义的核心主张是:认知不是按照规则操作离散符号,而是大量简单处理单元(类似于简化的神经元)之间的并行分布式处理

两种范式的差异可以通过一个类比来理解。符号计算主义将心智比作一个图书馆:知识以离散的条目(符号)存储在特定的位置,检索知识就是根据目录找到相应的条目。联结主义将心智比作一个全息图:知识不存储在特定位置,而是分布在整个系统的连接权重中——就像一张全息照片被撕成碎片后,每一片仍然包含完整的(但更模糊的)图像信息。

David Rumelhart(鲁梅尔哈特)和 James McClelland(麦克利兰)的PDP研究组在1986年的经典著作中展示了联结主义网络能够学习过去时态的动词变化——网络不是通过学习"规则”(如"加-ed”)来实现的,而是通过调整连接权重来捕捉输入-输出模式之间的统计规律。这个研究引发了一场关于"规则还是统计规律"的激烈争论:人类的语言能力(Chomsky 认为基于先天的语法规则)是否可以被更简单的统计学习机制所解释?

深度学习:联结主义的当代胜利

当代的深度学习(deep learning)是联结主义的直接后代。从 AlexNet(2012年在图像识别任务上的突破性表现)到 Transformer 架构(2017年,奠定了 GPT 系列的基础),深度学习在几乎所有认知任务上——图像识别、自然语言处理、语音识别、机器翻译、甚至蛋白质结构预测——都取得了远超 GOFAI 的成绩。

但深度学习的成功也引发了认知科学的深层问题。这些系统在"理解"还是只在"模式匹配"?一个能够完美翻译中文和英文的系统"理解"中文和英文吗——还是它只是发现了两种语言之间的统计对应关系?Emily Bender(2020)和 Alexander Koller 的"随机鹦鹉"论文(以及后续更广泛引用的 Bender, Gebru 等人2021年的论文)论证:语言模型操作的是语言的形式(form),而非语言的意义(meaning)——它们是极其精致的模式匹配器,但不是理解者。

💭 延伸思考

  • 如果心智不是"符号计算"而是"模式匹配"(或者两者的某种混合),传统逻辑学(基于符号和规则的形式推理)是否误解了人类实际的推理方式?人类在日常生活中的推理更像是逻辑推导还是更像是模式识别?
  • Searle 的中文房间论证依赖于"理解"这个概念具有清晰的内涵。但如果连定义"理解"都存在分歧,关于机器能否"理解"的争论是否可能只是一场语义之争而非实质性的哲学分歧?