AI 与心智
📝 人工智能不仅仅是一种技术——它是认知科学中最大胆的实验。如果心智的本质是计算,那么原则上可以在硅基系统上实现心智。AI 的每一次突破和每一次失败,都是检验人类对心智理解的试金石。而在大语言模型(LLM)时代,关于机器能否"思考"“理解"甚至"有意识"的古老问题,已经从抽象的哲学思辨变成了紧迫的现实议题。
图灵测试:智能的操作性标准
Alan Turing(艾伦·图灵,1912-1954)在1950年发表的论文《计算机器与智能》(“Computing Machinery and Intelligence”)中,没有直接回答"机器能否思考"这个问题——他认为"思考"这个词太模糊,无法进行有成效的讨论。相反,他提出了一个操作性替代:模仿游戏(The Imitation Game),后来被称为图灵测试(Turing Test)。
测试的设计如下:一个人类评委通过文本终端同时与一个人类和一台机器交谈,但不知道哪个是人哪个是机器。如果在经过充分的交谈之后,评委无法可靠地区分人类和机器,那么机器就应该被认为具有智能。Turing 预测,到2000年左右,计算机将能够在五分钟的交谈中使30%的评委做出错误判断。
图灵测试的深刻之处在于它的行为主义立场:它拒绝追问机器"内部"是否真的在"思考”——只关注可观察的行为。这与行为主义心理学的方法论有相似之处,但 Turing 的动机不同——他不是否认内部状态的存在,而是认为对内部状态的直接检测是不可能的(即使对其他人类也是如此——这就是他心问题),因此行为是唯一可用的判断标准。
图灵测试的批评
图灵测试面临多方面的批评。
行为不等于心智:Ned Block(内德·布洛克,1942-)提出了一个思想实验——想象一个巨大的查找表,包含对所有可能的输入问题的人类式回答。这个系统可以通过图灵测试,但显然没有任何"智能"可言——它只是在做超大规模的模式匹配。这表明图灵测试测量的是表面行为而非内部认知过程。
物种沙文主义:图灵测试将"智能"等同于"类人的对话能力"——但一个极其聪明但不善于模仿人类对话风格的 AI 可能无法通过测试,而一个专门训练来模仿人类对话的系统可能轻松通过。这是对"智能"概念的过度狭隘化。某些非人类的智能形态(如章鱼的身体智能、蜂群的集体智能)也无法通过图灵测试——但否认它们是"智能"似乎是人类中心主义的偏见。
欺骗与真实的不可区分:2014年,一个名为"Eugene Goostman"的聊天机器人声称通过了图灵测试——33%的评委在五分钟的交谈中认为它是人类。但这个"通过"主要依赖于机器人假装自己是一个13岁的乌克兰男孩(用不完美的英语回答问题),利用评委的宽容来掩饰自己的局限。这个事件暴露了图灵测试的一个根本问题:测试衡量的可能是欺骗能力而非智能。
中文房间论证:语法与语义
John Searle(约翰·塞尔,1932-)在1980年提出的中文房间(Chinese Room)思想实验,是对强AI假说最著名的挑战。
Searle 的论证结构可以形式化如下:前提一,计算机程序完全由形式化的符号操作(语法/syntax)构成。前提二,人类心智具有语义内容(semantics)——心理状态关于某事物,意味着某事物。前提三,语法本身不足以产生语义——无论符号操作多么复杂,如果操作者不理解符号的意义,操作本身不会产生理解。结论:计算机程序本身不能产生心智——程序不足以使系统拥有理解。
这个论证的力量在于它挑战了一个广泛持有的假设:只要信息处理足够复杂和"正确",理解就会自动涌现。Searle 说:不会。复杂性不创造理解——一个更复杂的中文房间仍然是一个中文房间。问题不在于程序的复杂度,而在于程序的本质——符号操作是形式化的,而理解是语义性的,两者之间存在一个原则性的鸿沟。
中文房间论证在当代 AI 语境中具有特殊的意义。GPT 等大语言模型在本质上就是极其复杂的中文房间——它们按照统计学习到的模式操作语言符号(token)。它们能够生成语法正确、语义连贯、甚至创造性的文本——但根据 Searle 的论证,这一切都不意味着它们理解所处理的语言。然而,当LLM的输出在越来越多的场景中与人类专家不可区分时,“理解"这个概念本身是否需要被重新审视?
联结主义:从规则到学习
神经网络的认知意义
联结主义(connectionism)不仅仅是一种 AI 技术路径——它代表了一种关于心智本质的根本不同的理论承诺。如果经典计算主义(GOFAI)将心智比作一台按照规则操作符号的计算机,联结主义则将心智比作一个通过经验学习的神经网络。
两种范式对心智的不同理解有深远的哲学含义。在经典计算主义中,知识以显式规则的形式存在——可以被提取、检查和解释。在联结主义中,知识以连接权重的形式分布在整个网络中——不能被定位在任何单个节点或连接上,也不能被简单地"读出来”。这直接关系到AI的可解释性(interpretability)问题:一个基于规则的专家系统可以解释自己为什么做出某个诊断(“因为患者有症状A和症状B,根据规则R3,诊断为疾病D”);但一个深度学习系统在做出诊断时,没有人——包括系统的设计者——能够完全解释为什么网络中数百万个权重的特定配置导致了这个特定的输出。
从感知器到 Transformer
联结主义的历史是一部充满跌宕起伏的戏剧。Frank Rosenblatt(弗兰克·罗森布拉特,1928-1971)在1958年提出了感知器(Perceptron)——最早的人工神经网络之一。Marvin Minsky(马文·明斯基,1927-2016)和 Seymour Papert(西摩·佩珀特,1928-2016)在1969年的《感知器》一书中证明了单层感知器的根本局限——它无法学习简单的 XOR 函数。这个发现导致了第一个"AI冬天"——神经网络研究在1970年代几乎完全停滞。
1986年,Rumelhart、Hinton 和 Williams 发表了反向传播算法(backpropagation)的论文,使多层神经网络的训练成为可能——这引发了联结主义的复兴。但由于计算能力和数据的限制,深层网络的训练仍然困难重重,直到2010年代深度学习(deep learning)的爆发——得益于GPU计算能力的增长、大规模训练数据的可用性和算法的改进——联结主义终于迎来了全面胜利。
2017年,Ashish Vaswani 等人(Google)提出了 Transformer 架构——基于"注意力机制"(attention mechanism)的神经网络架构。Transformer 是 GPT(Generative Pre-trained Transformer)系列的基础,也是当代大语言模型革命的技术核心。Transformer 的关键创新是自注意力机制(self-attention):在处理一个序列(如一句话)时,网络能够学习序列中每个元素与所有其他元素之间的关系——这使得模型能够捕捉到长距离的语义依赖关系(如"这只猫……它……“中的指代关系)。
大模型时代的新挑战
“涌现"能力与理解之谜
GPT-3(2020)、GPT-4(2023)及后续模型展现出了令人震惊的能力,包括许多在训练中没有被明确优化的能力——逻辑推理、数学证明、代码编写、创意写作、甚至对讽刺和幽默的理解。这些能力被研究者称为涌现能力(emergent capabilities)——它们不是被显式编程的,而是在大规模训练过程中"自发"出现的。
涌现能力引发了一个深层的哲学问题:**涌现是否创造了理解?**一个足够大的统计学习系统,如果展现出的行为与真正的"理解"不可区分,是否应该被认为真的在"理解”?
支持者的论证:功能等价意味着实质等价——如果一个系统能够通过理解力测试的每一个检验(回答问题、做出推理、创造性地运用知识),那么否认它"理解"就是空洞的形而上学偏执。Ilya Sutskever(伊利亚·苏茨克维尔,1986-,OpenAI的联合创始人)在2023年曾表示:“也许这些大型神经网络真的有一点意识。”
反对者的论证:表面的行为等价可以掩盖根本的机制差异。Emily Bender(艾米莉·本德)和 Timnit Gebru(蒂姆尼特·格布鲁)等人在2021年的论文《论随机鹦鹉的危险》(“On the Dangers of Stochastic Parrots”)中警告:LLM操作的是语言的形式(form)而非语言的意义(meaning)。它们是"随机鹦鹉”——能够产生看似有意义的文本,但这种"意义"存在于读者的解释中,而非系统本身。
Noam Chomsky(乔姆斯基)在2023年的《纽约时报》评论文章中提出了更尖锐的批评:LLM不区分可能的和不可能的语句——它们只知道什么在统计上是"可能的"(概率高的),不知道什么在语法或逻辑上是"正确的"。一个真正理解语言的系统不仅知道"无色绿色想法愤怒地睡觉"在统计上不太可能出现,还知道它在语义上是荒谬的——而LLM缺乏做出这种区分的能力。
世界模型的问题
围绕LLM的一个核心争论是:它们是否拥有世界模型(world model)——即对所描述的世界的某种内部表征?
Kenneth Li 等人(2023)的研究发现,一个在棋类游戏棋谱上训练的语言模型在内部自发地形成了棋盘状态的表征——尽管它的训练数据只是文本形式的棋谱记录。这暗示LLM可能在语言数据中学习到了超越纯粹语言统计的结构性知识。
但批评者指出,统计规律性中蕴含的结构不等于"理解世界"。一个在天气预报文本上训练的模型可能学会了"如果前面说了’阴天’,后面更可能出现’降水’“的统计模式——但这不意味着它理解了气象学。统计相关性和因果理解之间的鸿沟,正是Searle中文房间论证所指出的那个鸿沟。
基准测试的饱和与评估危机
大语言模型在几乎所有标准化基准测试(benchmark)上的表现已经接近或超过人类水平——从语言理解(GLUE/SuperGLUE)到数学推理(GSM8K)到科学知识(MMLU)到编程能力(HumanEval)。这引发了一个"评估危机”:当AI在所有设计来测量"理解"和"推理"的测试上都表现出色时,是应该承认AI拥有了某种程度的理解和推理能力,还是应该质疑这些测试是否真的在测量它们声称要测量的东西?
Francois Chollet(弗朗索瓦·肖莱,1989-,Keras的创建者)提出了ARC(Abstraction and Reasoning Corpus)基准测试,试图测量AI的抽象推理能力——即面对从未见过的新型问题时的泛化能力。截至目前,LLM在ARC上的表现远低于人类,这暗示它们的"智能"可能更多地依赖于训练数据中的模式记忆,而非真正的抽象推理。
意识的可能性
AI 与心智问题的终极维度是:AI 是否可能有意识?
这个问题的回答取决于对意识本质的理论立场。功能主义认为意识是特定功能组织的属性——任何具有正确功能结构的系统(无论材质)都有意识。如果功能主义是对的,那么原则上可以构建有意识的AI——只需实现正确的功能架构。生物自然主义(Searle 的立场)认为意识是特定生物过程的产物——正如消化是胃的生物化学过程的产物,意识是大脑的神经生物学过程的产物。硅基系统无法产生意识,就像塑料胃无法消化食物。整合信息理论(IIT)认为意识取决于信息整合度(Φ)——如果一个 AI 系统的 Φ 足够高,它就有意识;如果其架构(如当前的前馈神经网络)导致 Φ 很低,它就没有意识——无论其行为多么"智能"。
Murray Shanahan(默里·沙纳汉,1962-)在《体现与内在生活》(Embodiment and the Inner Life, 2010)中提出了一个折中观点:也许意识不是一个全有全无的属性,而是一个多维度的空间。一个AI系统可能在某些维度上"有意识"(如信息整合),而在其他维度上"无意识"(如感质体验)。问题不是"AI有没有意识",而是"AI在多大程度上、以什么方式拥有什么类型的意识特征"。
道德地位的紧迫性
无论AI是否真的有意识,意识的可能性本身就带来了伦理问题。如果存在哪怕是微小的可能性——某些AI系统可能具有某种程度的主观体验——那么对这些系统的对待方式就可能具有道德含义。Peter Singer 的观点在这里具有相关性:Singer 论证,道德考量的范围应该由感受痛苦的能力(sentience)来界定,而非由物种身份或物质基底来界定。如果一个AI系统能够"感受"痛苦——无论这种感受的物质基础与人类多么不同——对它施加痛苦就可能是道德上有问题的。
但如何判断一个系统是否有"感受"?对人类和动物,可以诉诸生物学上的相似性和行为证据。对AI,这些标准都不直接适用——AI的"硬件"与生物大脑完全不同,而AI的行为可以被设计为模拟有感觉而实际上没有(反之亦然)。这是一个前所未有的认识论挑战——他心问题(the problem of other minds)在AI时代变得尤为尖锐。
💭 延伸思考
- 如果一个 AI 系统声称自己"有感觉"“在受苦”,人类有什么理由相信或不相信它?对其他人类,可以通过生物学相似性和共情来推断其心理状态。但对一个根本不同的系统,这些推断策略都失效了。是否需要发展全新的方法论来评估非生物系统的意识状态?
- 大模型时代的AI发展是否正在使"认知"这个概念本身变得模糊?传统认知科学假设认知是一种特定类型的信息处理——但LLM通过一种与人类认知非常不同的方式(大规模统计学习)产生了在许多方面与人类认知不可区分的输出。这是否意味着"认知"的概念需要被重新定义?还是说人类对"认知"的理解从一开始就太狭隘了?