跳至内容

J09 生成式 AI 与知识危机

📝 2022年末 ChatGPT 的发布标志着一个技术断裂点——机器首次能够生成连贯的、看似有深度的文本、代码和图像。这不是互联网、社交媒体或智能手机式的渐进性变革,而是对"知识"、“创造力"和"理解"等概念本身的挑战。当一个没有意识、没有意图、没有身体经验的统计系统能够生成与人类专家难以区分的文本时,知识的定义、教育的目的、创造力的本质和知识工作的经济基础都面临根本性的重新审视。生成式 AI 不仅是一种新工具,更是一面映照人类认知自我理解之裂缝的镜子。

🎯 核心问题:生成式 AI 的出现是否构成了一场认识论危机——对"什么算作知识"“什么算作理解"“什么算作创造"的基本概念的根本性动摇?AI 究竟是增强人类能力的工具,还是替代人类角色的竞争者,抑或是重新分配权力和利益的结构性力量?

为什么这个问题重要

生成式 AI 的重要性不在于它是又一项强大的技术——历史上不乏改变世界的技术——而在于它触及了人类自我理解的核心。此前的自动化浪潮主要影响体力劳动和常规性认知任务:蒸汽机替代了肌肉力量,计算机替代了算术能力,机器人替代了装配线工人。但语言生成、文本理解、图像创作和代码编写一直被视为"人之为人"的标志性能力——它们不仅是技能,更是人类认知独特性的象征。当机器在这些领域的表现达到甚至超过普通人类的水平时,受到威胁的不仅是特定的职业,更是关于"人类智能的不可替代性"的信念体系。

案例一:2023年学术期刊中的 AI 生成论文事件。2023至2024年间,多家国际学术期刊被迫撤回大量论文,原因是这些论文被发现部分或全部由 AI 生成——一些论文甚至包含了 ChatGPT 特有的措辞痕迹(如"作为一个 AI 语言模型,我…")。这一事件的意义远超学术不端行为的范畴。它暴露了学术知识生产体系的一个结构性脆弱点:同行评审系统建立在"提交者是人类作者、文本反映了真实的研究过程"这一基本假设之上。当这一假设不再可靠时,整个学术质量保障体系面临信任危机。更深层的问题在于:如果一篇 AI 生成的论文包含了正确的数据分析和合理的结论,它是否仍然是"无效的"知识?如果 AI 能够生成通过同行评审的学术文本,同行评审究竟在评估什么——内容的真实性、推理的严谨性,还是作者身份的真实性?

案例二:好莱坞编剧罢工中的 AI 议题。2023年美国编剧工会(WGA)的罢工中,AI 议题成为核心诉求之一。编剧们要求制片公司承诺:AI 不能被列为编剧或共同编剧;AI 生成的内容不能被用作"原始素材”(source material)来压低编剧报酬;编剧的作品不能在未经许可的情况下被用于训练 AI 模型。这一劳资争议折射出的不仅是特定行业的利益冲突,更是一个将在所有知识和创意产业中重复上演的根本性问题:当机器可以完成"创造性"工作时,人类创作者的经济价值和社会地位如何维系?罢工最终达成的协议——严格限制 AI 在编剧流程中的使用——可能只是一种暂时的防线,因为技术能力的持续增长终将迫使更根本性的制度重构。

多学科视角

🔬 认识论视角:AI 的"知识"是真正的知识吗

生成式 AI 引发的最深层的哲学问题是认识论层面的:大语言模型(Large Language Models, LLM)生成的文本是否包含"知识”?传统认识论将知识定义为"得到辩护的真信念”(justified true belief)——知识的持有者需要相信某个命题为真,该命题确实为真,并且有充分的理由支持这一信念。按照这一定义,LLM 显然不具有知识:它没有信念(belief),没有辩护过程(justification),也没有"关于"(aboutness)的意向性——它的输出是基于统计模式的token序列生成,而非基于对世界的理解。

Emily BenderTimnit Gebru 等学者在具有影响力的论文《论随机鹦鹉的危险》(“On the Dangers of Stochastic Parrots”, 2021)中提出了一个尖锐的类比:大语言模型本质上是"随机鹦鹉"(stochastic parrots)——在没有任何语义理解的情况下,基于统计概率重新组合从训练数据中获取的语言模式。这一类比的力量在于它揭示了输出的流畅性与理解的深度之间的根本性脱节:一个系统可以生成看似深刻的文本,而不需要"理解"文本的任何含义。

然而,反驳也同样有力。功能主义(functionalism)的立场认为:如果一个系统的输出在功能上等同于"有理解的"人类的输出,那么坚持它"没有真正的理解"可能是无法被经验检验的形而上学偏见。正如 Alan Turing(1912-1954)在提出图灵测试时所隐含的论证:如果行为层面无法区分机器与人类,那么关于内在"理解"的追问可能不具有可操作的意义。这场争论与意识的"困难问题"深刻交织——行为的等价性是否蕴含经验的等价性?

📚 教育学视角:当 AI 能写论文时,教育的目的是什么

生成式 AI 对教育的冲击是全面的。当 AI 能够生成比大多数本科生更优质的课程论文时,传统的写作作业——作为知识评估的核心工具——面临根本性的意义危机。如果学生可以(而且许多学生确实在)使用 AI 完成作业,那么这些作业究竟在评估什么?

不同的教育系统采取了截然不同的应对策略。一些机构选择禁止路径:部署 AI 生成内容检测软件,将使用 AI 纳入学术不端行为的定义。然而,检测技术的可靠性存在严重问题——误判率尤其引起公平性担忧,特别是对非母语写作者。另一些机构选择拥抱路径:将 AI 素养(AI literacy)纳入课程,教授学生批判性地使用 AI 作为辅助工具。最具变革性的是重新设计路径:根本性地反思教育目标——如果 AI 可以执行信息收集和文本生成任务,教育应转向培养批判性判断力、伦理推理、创造性提问和在不确定性中决策的能力。

这场危机也可以被视为一个揭示性的时刻:许多传统的作业和考试是否从一开始就不是在评估"理解"和"思考",而是在评估"信息检索和文本生成"——恰恰是 AI 最容易自动化的技能?如果是这样,AI 威胁的不是真正的教育,而是对教育的一种简化模拟。

💰 经济学视角:知识工作的自动化与不平等

经济学家 David Autor(1967-)提出的"最后一英里自动化"(last-mile automation)概念精确地描述了生成式 AI 的经济冲击。此前的自动化浪潮主要影响常规性任务——无论是体力的(工厂装配)还是认知的(数据录入、基础会计)。非常规性认知任务——写作、分析、设计、编程、咨询——被认为是自动化的"最后一英里",因为它们需要的灵活性、判断力和创造力被视为机器无法复制的。生成式 AI 正在突破这道防线。

这对劳动力市场的含义是深远的。过去四十年来,经济学家反复安慰公众:“技术消灭旧工作的同时也创造新工作。“这一论断在历史上确实成立。然而,当自动化的对象从蓝领延伸到白领、从常规延伸到非常规、从执行延伸到创造时,“新工作"是否仍能以足够的速度和规模被创造出来,是一个没有历史先例可以解答的问题。更深层的结构性问题在于收益分配:如果 AI 使一名程序员的生产力提升十倍,雇主需要的程序员数量可能减少为原来的十分之一——而利润将主要流向 AI 工具的所有者和少数高技能工作者,加剧已经严峻的经济不平等。

⚖️ 伦理学视角:幻觉、偏见与对齐问题

生成式 AI 的伦理挑战是多层次的。AI 幻觉(hallucination)——模型自信地输出事实上错误的信息——是最直接的风险。LLM 不区分"真"与"假”,因为其运作机制是预测下一个最可能的 token,而非验证命题的真值。一个关于法律案例的查询可能返回完全虚构的判例引用;一个医学问题的回答可能包含错误的诊断建议。2023年一名律师因在法庭文件中引用 ChatGPT 虚构的判例而受到法律制裁,成为这一风险的标志性案例。

训练数据中的偏见复制构成另一维度的伦理问题。LLM 从互联网文本中学习,而互联网嵌入了大量的性别、种族和文化偏见。模型可能以更难识别的方式放大和固化这些偏见——因为 AI 输出的权威性外观使偏见更难被察觉。当 AI 被用于高风险决策——招聘筛选、贷款审批、司法量刑辅助——时,偏见的系统性复制可能加剧社会不公正。

对齐问题(alignment problem)从技术风险上升为现实关切。对齐问题的核心是:如何确保越来越强大的 AI 系统的行为与人类的价值观和利益一致?在 AI 能力有限的时代,这主要是一个理论问题。但当 AI 系统被整合到社会基础设施的各个层面——搜索引擎、内容推荐、客户服务、代码生成、科学研究——时,即使是轻微的"不对齐"也可能产生大规模的累积效应。

🏛️ 政治学视角:AI 治理的权力博弈

生成式 AI 的政治学维度涉及多个层面。在国家层面,AI 治理呈现出明显的路径分化:欧盟的 AI 法案(AI Act)采取了风险分级的监管路径,将高风险 AI 应用纳入严格的合规框架;美国倾向于行业自律与有限监管的结合;不同国家根据各自的战略优先级和治理传统做出了不同的选择。这种全球层面的治理分化本身就构成了挑战——当 AI 模型可以跨越国境自由流通时,任何单一国家的监管都面临有效性的限制。

开源与闭源的权力政治是另一个核心议题。最强大的 AI 模型目前主要由少数科技巨头开发和控制。这种集中化引发了深层的权力担忧:少数私人公司是否应当掌控一种可能重塑整个社会的基础技术?开源 AI 运动试图通过公开模型权重来实现 AI 能力的民主化。然而,开源面临两难:更广泛的技术获取促进了创新,但也降低了恶意使用的门槛。AI 的军事化进一步加剧了这些紧张关系——当 AI 成为国家安全战略的核心时,技术治理不可避免地被纳入地缘政治框架。

🔥 核心争论

AI 是"增强人类"还是"替代人类”

围绕生成式 AI 的影响,三种基本立场形成了持续的争论。工具论/乐观派认为 AI 是人类能力的延伸——正如计算器增强了计算能力而非消灭了数学家,AI 将增强认知和创造能力。替代论/悲观派认为这一次根本不同——AI 正在自动化的是核心认知能力本身;他们援引的不是工业革命的先例,而是马匹的命运:汽车出现后,马匹没有找到"更高层次的工作”——它们被淘汰了。结构派认为真正的问题是:谁拥有 AI,谁从 AI 中获益?如果 AI 的所有权高度集中,即使 AI"增强"了人类能力,利益也将极度不均等地分配。结构派的核心论点是:AI 不是中性的技术力量,而是嵌入在既有权力关系中的社会制度——它将放大已有的不平等,除非有意识的制度设计来纠正这一趋势。

案例三:各国教育系统对 AI 的差异化应对。面对生成式 AI 对教育的冲击,全球不同教育系统的反应构成了一个自然实验。部分学校和大学在最初阶段选择全面禁止 AI 工具的使用——将其等同于考试作弊。然而,禁令的执行困难重重:AI 生成文本的检测技术不可靠,且对非母语学生存在系统性偏见。其他机构转向了积极整合策略——芬兰、新加坡等国的教育系统开始将 AI 素养纳入核心课程,教授学生如何有效地与 AI 协作,同时批判性地评估 AI 输出。最根本性的回应则指向教育目标本身的重新定义:如果记忆事实和生成标准化文本不再是人类的比较优势,教育的重心应当转向提问能力(而非回答能力)、伦理判断(而非信息处理)和跨学科整合(而非学科内专精)。这场教育实验的长期结果尚不可知,但它已经迫使教育者面对一个长期回避的问题:传统教育在多大程度上一直在培养的是"可被自动化的"技能?

💭 延伸思考

  • 如果 AI 系统能够生成在形式上与人类专家难以区分的学术文本,这是否意味着学术写作作为"知识的外在表征"一直以来就比想象中更多地依赖于形式惯例(语气、结构、引用模式),而较少依赖于深层理解?AI 是否无意中揭示了人类知识生产中的一个盲点——大量被视为"知识工作"的活动实际上是模式化的文本操作?
  • 生成式 AI 的长期文化影响可能比其经济影响更为深远。如果人类的自我理解——“思考的存在"“语言的动物"“创造的物种”——建立在认知能力的独特性之上,那么当这种独特性被技术所侵蚀时,人类需要一种全新的自我叙事。这种叙事可能将"意义"和"价值"的来源从"能力”(能做什么)转向"经验”(经历什么)和"关系"(与谁在一起)——这一转变,如果发生,将是一场不亚于启蒙运动的人类自我理解的革命。

📚 参考文献

  1. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of FAccT 2021. “随机鹦鹉"类比的来源,对大语言模型的语义理解缺失的批判性分析。
  2. van der Kolk, B. (2014). The Body Keeps the Score. Viking. 虽为创伤理论著作,其关于身体性知识与语言性知识之区分的论证对理解 AI “知识"的本质具有启发意义。
  3. Autor, D. (2024). Applying AI to Rebuild the Middle Class. NBER Working Paper. AI 对劳动力市场的结构性影响及政策应对的经济学分析。
  4. Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press. AI 的政治经济学批判,揭示 AI 作为权力结构而非中性工具的本质。
  5. Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking. 对齐问题的系统论述,从技术和哲学层面探讨如何确保 AI 系统与人类价值观一致。