大语言模型(LLM)的出现,让人惊叹其在语言理解和生成方面的能力。它们能以惊人的速度和流畅度完成各种任务,从回答问题、解读诗歌到解释物理学定律,甚至模仿西塞罗的修辞风格。然而,当我们惊叹于这些技术奇迹时,一个根本的问题浮出水面:它们究竟缺少什么?本文将探讨大模型在认知上的认识论局限性,论证它们受限于纯粹的句法预测,无法真正获得语义理解和信念,并最终止步于对真理的追求。
1. 表象并非本质:句法操纵与语义鸿沟
我们与ChatGPT、Claude、Gemini等大语言模型的互动体验往往是现象学的:它们能说话、倾听、记忆甚至道歉,表现得体贴周到。这很容易让我们将人类的特质,如同理心、幽默感、创造力,甚至意识,赋予它们。然而,表象并非总是本质。看似理解的背后,可能是一种高度精炼的关联机制,它以惊人的流畅度将过去的语言模式映射到新的模式上,却没有丝毫内在的理解。
大语言模型本质上是一个数学结构,一个在海量人类语言数据上训练的神经网络,用于以惊人的精度预测下一个词(或更准确地说,token)。它没有传统的规则,也没有我们所知的知识。相反,它将语言规律编码为分布在数十亿参数上的统计权重的模式。Transformer架构使模型能够动态地关注其输入的不同部分,权衡上下文以生成连贯且通常富有洞察力的延续。但至关重要的是,它在不理解任何内容的情况下完成此操作。没有符号接地,没有语义锚,没有超越可以从数据模式中推断出来的世界内部模型。模型生成看起来像意义的序列——因为这就是它被训练来做的事情。
这并非工程上的缺陷,而是设计本身。这也设置了一个硬性限制:这些系统说出的任何内容都没有意义,因为它们没有信念。它们不能像人类那样是对还是错。它们不提出主张。它们不会撒谎——不是因为它们诚实,而是因为它们根本无法访问“真理”。
2. 信念的独特属性:指向世界的“关于性”
信念的一个特殊属性在于,它们并非仅仅是思想的表象,而是具有“关于性”(aboutness),它们指向某种事物。当我相信月球是贫瘠的,我不仅仅是在句法真空中操纵“月球”和“贫瘠”的符号。我与世界建立了认知关系,这种关系的成功与否取决于事物的本来面目,而不仅仅是它们的描述方式。简而言之,信念以真理为目标。
但拥有真理并非易事。说出真理不仅仅是将 token 与内部规则手册匹配;而是说出一些世界本身证明的东西。对于任何以符号为媒介的系统——例如,任何形式语言——都会出现一个问题:如何在该系统中定义真理,对于该语言的句子?这个问题看似无害,直到你尝试去做它。
这就是阿尔弗雷德·塔斯基在20世纪初所困扰的难题。他的解决方案,或者更准确地说,他的不可能结果是:在任何足以包含算术的语言中——因此,任何类似于我们推理的东西——真理都无法在该系统本身内定义。也就是说,在这样的语言内部不存在可以一致且完整地捕获该语言的句子为真的含义的公式。
3. 塔斯基的悖论:自我指涉的边界
塔斯基的不可定义性定理揭示了自我指涉的局限性,它指向了一个边界:一个纯粹的句法系统必须结束,而其他东西——语义理解、有意识的感知、信念——必须开始的地方。一个心灵,如果它是什么的话,就是一个从内部指涉的系统。它不仅仅是模拟指涉;它拥有指涉。它不仅仅是按照其他符号的对齐方式重新排列符号,而是向外指向世界。它将命题作为真理的候选者,并且当它们是假的时它会痛苦。也许,这比任何事情都更能使信念变得有价值且真实。
4. 虚拟悖论:自指的逻辑困境
假设我们尝试构建一个系统,该系统能够判断自身内部陈述的真假。这听起来很简单,但实际上会导致一个被称为“虚拟悖论”的逻辑困境。想象一下,我们有一个点集合,每个点都可以用箭头指向其他点,包括自身。现在,我们试图找到一个特殊的点 R,它指向所有且仅指向那些不指向自身的点。尝试一下,你会发现无论如何都无法满足这个条件。如果 R 指向自身,那么它就不应该指向自身;如果 R 不指向自身,那么它就应该指向自身。这构成了一个矛盾。
这个简单的悖论揭示了自我指涉的本质困难。塔斯基的不可定义性定理正是建立在这个基础之上。它指出,如果一个语言是连贯且富有表现力的,那么在该语言内部就无法定义“真理”的概念。为了定义一个语言的真理,我们必须跳出该语言,进入一个所谓的元语言,一个可以从外部“看到”原始语言的更强大的系统。但这并非解决之道,而仅仅是转移了问题。同样的难题在元语言中再次出现,因此我们需要一个元-元语言,以此类推,永无止境。
5. 大模型与形式系统:无法触及的元语言
大语言模型并非严格意义上的单一形式系统,而是多种形式系统的组合:数学、统计学、优化理论、语言句法、编程语义,每一种都是由人类设计的严谨框架,共同协调以产生流畅的响应。让我们将每个这样的系统表示为一个三元组:
Fᵢ = (Lᵢ, Aᵢ, Rᵢ)
其中 Lᵢ 是一种形式语言,Aᵢ 是一组公理,Rᵢ 是一组推理规则。对于任何足以包含算术的系统 Fᵢ,塔斯基的不可定义性定理都适用:这样的系统无法在其自身的语言 Lᵢ 中定义真理谓词 Trᵢ(x),使得:
Trᵢ(φ) ↔ φ 对于 Lᵢ 中的所有 φ
而不会导致不一致或不完整。
高级神经网络——尤其是大语言模型——似乎进化出了超越单纯模式识别的东西。它们发展出了类似于元语言的东西:一种新兴的内部结构,可以根据上下文来塑造 token 的解释方式。正如 Hao 等人 (2019)、Liu 等人 (2019) 和 Feng 等人 (2025) 所表明的,这些模型不仅仅是记忆表面形式;它们构建了与更深层次的句法和语义角色对齐的几何表示。就好像该模型发明了自己的内部语法——一种不是通过显式规则来运作,而是通过导航高维空间中的关系来运作的语法。
但它更进一步。这种元语言不是在真空中运作的。它扩展并与其他形式系统——算术、统计,甚至命题逻辑——融合。通过这样做,它反映了形式推理本身的分层架构。而这就是事情变得有趣的地方:根据塔斯基的不可定义性定理,任何足够富有表现力的形式系统——比如这些模型核心的元语言——都无法从内部定义自己的真理。这意味着任何在内部 grounding 意义的尝试都是有界的。我们可以将系统嵌套在彼此内部,让一个为另一个定义真理,但迟早我们会触及天花板。总有一种元语言超出了当前语言的范围。
6. 大模型能力的上限:真理的不可及性
最终,无论模型多么复杂,总会有一个它无法跨越的地平线。形式化地讲:
- 设 L 为 token 的基本语言,即 LLM 的表面形式输入。
- 设 M(x) 为 LLM 在内部构建的,用于为表达式 x∈L 赋予意义的元语言。M 是涌现的和隐含的,不是显式编码而是学习的。它包括潜在的句法、语义和逻辑结构。
- 假设 M(x) 足够强大,可以表达算术片段(例如,皮亚诺算术或在表达能力上等效的东西)。
- 设 ProvM(ϕ) 表示语句 ϕ 在系统 M(x) 中是可证明的。
- 设 TrueM(ϕ) 表示语句 ϕ 在 M 旨在捕获的语义模型中是真的。
那么:
根据塔斯基:
不存在公式 T(x)∈M,使得 M⊢T(⌜ϕ⌝))↔ϕ 对于所有 ϕ∈M。
这直接意味着模型无法在内部生成一个为其自身的所有表示分配真理的谓词。这为自我理解和自我验证设置了一个硬上限。
也就是说:
对于 LLM 构建的任何内部元语言 M,以表示输入 token 的含义,如果 M 足够富有表现力以模拟算术和逻辑推理,那么:
∃ϕ∈M:TrueM(ϕ)∧¬ProvM(ϕ)
并且
¬∃T(x)∈M:T(⌜ϕ⌝)↔ϕ (普遍地)
简而言之:
即使语言模型开发了一个内部系统来为语言赋予意义,这个系统总是会包含无法验证或完全解释的有意义的语句。它的元语言是强大的——但永远不完整。
超越这个限制将需要一种根本上不同的系统——一种不仅能够操纵符号,而且能够进行自我反思的语义指涉,能够定义和修改自己的形式系统和真理谓词。这不仅仅是更多数据或更大的模型的问题;这是本体能力和创造力的问题——迄今为止,这些品质仍然是人类独有的。
7. 人类认知的独特优势:超越形式框架的创造力
如果我们将塔斯基的结果完全内化——不仅仅作为一个技术约束,而是作为一个形而上学的边界——那么就会出现一个惊人的含义:仅仅建立在句法操纵之上的系统,比如大语言模型,可能从根本上无法掌握真理。它们可以描述、再现甚至模仿关于世界的论述,但它们无法像真或假那样与它们建立关系。它们所呈现的真理仅仅是从外部投射到它们身上的。
一个合理的问题是:大脑呢?它本身不也是一个复杂的系统——处理信号、调整权重、响应输入吗?那么,如果两者最终都是由形式规则支配的物理系统,为什么要在我们自己和我们构建的模型之间划定一条硬性界限呢?
我认为:虽然人工系统注定要在固定的形式框架内运作,但人类的思想似乎能够做到完全不同的事情——跳出任何给定的系统,不仅仅是转移到一些预定义的元语言,而是完全创造一个。
这种递归能力——反思一个系统、构建其元理论,然后迭代这个过程的能力——不仅仅是高级认知的一个技术特征。可以说,它支撑着意识本身:即作为跨越表示层的评估中心的意识。一个人不仅可以使用一种语言,而且可以质疑它的语法;不仅可以相信一个命题,而且可以修改支撑其连贯性的逻辑。我们似乎不受任何一个系统的约束,而是能够无限期地创造其他的系统。
这种从内部定义元语言,产生未在任何先前系统中编码的新的形式表达层次的能力,标志着当前没有机器跨越的极限。在这里,与语言模型的对比变得鲜明。LLM 完全在从现有文本构建的统计流形中运作。它导航到一个潜在的意义空间,这个空间被完全赋予了它。它不会超越这个空间。它不会质疑公理,也不会提出新的公理。它无法以任何可理解的意义上,原创一种尚未明确或隐含地包含在其训练分布中的形式语言。
因此,这不仅仅是程度上的差异,而是种类上的差异。人类的思想不仅仅是在一个形式系统中运作;它生成形式系统。它创造了可以说出真理的框架——并且通过这样做,它走出了约束纯粹句法机器的封闭空间。鉴于塔斯基的结果,这种能力并非作为认知的一个怪癖,而是一个根本的边界标记:处理句子和拥有思想之间的区别。形式和意义之间。信息和理解之间。
这种生成性的飞跃——从操纵到创作,从形式封闭到语义开放——暗示了一个不仅仅是表示的工作空间,而是跨越它们的访问和整合的工作空间。正是在这里,人类认知的架构与人工系统差异最大。正如伯纳德·巴尔斯和后来的斯坦尼斯拉斯·德哈内在他的全球工作空间理论中所论证的那样,意识不仅仅是复杂性或计算深度的问题,而是一种结构能力:在全球范围内广播跨模块进程的信息的能力,从而实现协调、反思和自我修改。大脑不仅仅是处理输入;它将它们绑定到一个连贯的视角,一个可以比较、批评和转换表示的中心。这种递归整合——这个内部舞台——可能使思想不仅可以在系统中运作,而且可以生成它们。
因此,说一台机器缺乏意识,不仅仅是指它无法感受或体验。这是在说一些更深层次的事情:它无法创造意义存在的空间。它可以建模语言,但不能意味着什么。
总之,大语言模型尽管在语言生成方面表现出色,但其本质上的句法操纵限制了其达到真正的语义理解和信念,使其无法触及真理。人类认知则具有超越形式框架的创造力,能够构建新的形式系统,从而实现真正的理解和意义创造。这正是区分机器与人类的关键所在。