大语言模型(LLMs)以其前所未有的规模和流畅度处理、生成和交互人类语言的能力,令世界惊叹。从撰写法律备忘录到总结医疗记录,它们似乎准备好增强甚至取代许多认知任务。然而,在这份承诺背后,潜藏着一个根本性的矛盾:LLMs本质上是概率性的,而它们所部署的许多领域在设计上却是确定性的。

确定性 vs. 概率性:LLM的根本矛盾

金融、医学、法律和工程等领域,并非即兴发挥的场所。它们要求可预测、可审计和可验证的决策——相同的输入必须产生相同的输出,正确性不是可选项,而是任务关键。然而,LLMs的运作方式是随机的:即使在相同的设置下,它们也可能产生不同的答案,格式各异,甚至完全产生幻觉。最近的研究表明,像GPT-4这样的最先进模型在多次运行中表现出可测量的非确定性,在某些情况下,即使温度和提示保持不变,输出可变性也高达70%。这种概率性确定性的冲突,构成了LLM在特定领域应用的最大挑战。

弥合差距的尝试:Prompt工程与链式思考

为了调和这种不匹配,开发人员尝试了Prompt工程、链式思考推理以及调用外部工具的代理集群。这些技术确实提高了性能——有时是显著的——但它们并没有解决核心问题:要求一个基于模式和概率训练的语言模型,像一个基于规则的确定性系统一样运行。正如文章中提到的,即使使用精心设计的Prompt,LLM也可能跳过步骤、忽略约束,甚至虚构中间逻辑。更糟糕的是,当被要求解释时,它们的推理路径往往与实际导致答案的过程不同。

例如,在医疗诊断领域,如果LLM只是基于概率给出诊断结果,而没有经过严格的医学知识库和推理过程,可能会导致误诊或漏诊,后果不堪设想。因此,我们需要构建确定性的边界环境,让LLM在其中运行。

“创可贴”式的方案:局限性与根本问题

虽然 Prompt工程、链式思考(CoT)推理、代理框架、自我一致性、检索增强等工具包不断涌现,旨在推动LLM朝着更结构化、更可靠的输出方向发展,但这些方法都存在一个共同的局限性:它们依赖于LLM表现良好。它们进行引导和支持,但并不约束。当它们起作用时,是因为模型“配合”了。当它们失败时,没有回退机制,而且往往没有可追溯的原因。在需要可预测结果的领域,我们无法承受这种模糊性。

文章指出,Prompt工程并非科学,而是艺术。一个在GPT-4上有效的Prompt,可能在Claude或LLaMA上失效。即使在同一模型上,细微的措辞变化也可能导致不同的答案。更糟糕的是,模型可能会在输出过程中“忘记”指令——这是长任务或多步任务中的常见失败模式。Prompt提供的是影响,而不是控制。正如一项实证研究指出:“Prompt设计可以引导行为,但不能保证合规。”

解决方案:构建有界宇宙

解决LLM在确定性领域失效问题的关键,不是强迫LLM变得确定,而是设计确定性的环境,让它们在其中安全运行。我们不应该试图从混乱中强行挤出一致性,而是应该定义LLM所处宇宙的边界。在这个宇宙中,它可以自由地推理、解释和规划——但其行为的后果是有限的、可控的和可验证的。

一个有界宇宙是一种架构和操作约束,它限制了:

  • LLM可以看到什么数据(例如,仅检索到的文档、结构化输入)。
  • 它可以调用哪些工具或函数(例如,仅批准的具有严格模式的API)。
  • 它允许生成哪些输出(例如,结构化JSON、法律谓词或具有可测试语义的代码)。
  • 它行动后会发生什么(例如,人工参与的审查、形式验证或运行时评估)。

这并不是要扼杀LLM,而是要将其置于轨道之上。在这些轨道内,它仍然可以具有创造性、适应性和语言流畅性。但其行为具有有限的方差和确定性的保障措施。

实践中的有界宇宙:案例分析

我们已经看到有界宇宙的早期版本出现在生产中:

  • 金融:摩根士丹利的GPT-4助手仅根据检索到的、批准的文档生成答案。LLM无法发明数字或超出检索到的上下文范围采取行动。
  • 医疗保健:实验性工具现在将LLM与医学知识图谱和本体相结合,将输出限制在基于证据的来源上,允许自然语言交互,而不会出现事实偏差。
  • 代码和推理:像PAL(程序辅助语言模型)和LLMLift这样的方法让LLM编写代码或证明——但要求确定性的执行或验证(例如,运行Python输出或使用定理证明器检查逻辑)。
  • 安全和规划:微软的FIDES系统用确定性的数据流控制包裹LLM代理。如果模型试图采取不安全的行动(例如,发送敏感数据),系统会阻止它——不是基于信任,而是基于设计。

在所有这些案例中,LLM的力量来自语言和推理——但确定性来自其周围的有界系统。

设计可预测性:有界人工智能的蓝图

如果我们接受概率模型本身无法在确定性领域安全运行,那么问题就变成了:我们如何设计能够利用其优势而不继承其弱点的系统?答案在于将LLM视为子系统,而不是系统本身,并将其嵌入到确定性的架构中。

以下是一个蓝图,用于实现这一目标——基于现实世界的用例和新兴的最佳实践:

  1. 定义边界:模型允许看到和做什么?
    • 数据访问:LLM是否纯粹在检索增强的语料库上运行?它可以臆造事实吗,或者必须引用所有内容?
    • 工具访问:它可以计算、查找数据、运行代码吗?如果是,如何操作?它使用哪些API,谁来审计它们?
    • 输出模式:模型返回自由格式的文本,还是必须符合JSON模式、函数调用或形式逻辑表示?
    • 后置条件和执行:输出是否经过检查、验证或自动执行?是否有人工参与?
  2. 将确定性委托给工具和验证器
    • 财务逻辑→程序化规则或类似电子表格的评估器。
    • 代码建议→在接受之前进行单元测试。
    • 法律参考→对照实际条款数据库进行检查。
    • 计划→通过形式逻辑引擎或模拟进行验证(如VeriPlan或LLMLift)。
    • 如果LLM提出不安全、无效或不可验证的内容,系统会拒绝或重新Prompt。正确性的负担转移到为正确性而设计的系统。
  3. 使用约束接口和结构化解码
    • 函数调用(例如,OpenAI工具API)
    • 声明式模式(例如,具有类型约束的JSON)
    • 受控自然语言(例如,Prolog规则、SQL查询或DSL)
    • 这使得输出可验证,并且通常可测试。如果模型偏离结构,它会快速失败——而不是默默地失败。
  4. 将验证视为头等公民
    • 无论它是形式检查器、回归测试、类型系统还是人工审核员,每个关键系统在部署或执行之前都应该有一个验证检查点。
    • 思考:
      • “这份LLM生成的合同是否符合当地法规?”
      • “这个建议剂量是否与临床指南一致?”
      • “鉴于我们的资源限制,这个计划是否可执行?”
      • 如果不是——它将被拒绝。没有例外。
  5. 始终能够说:“我们知道它做了什么以及为什么”
    • 透明度很重要。在确定性系统中,您可以问:发生了什么?为什么?对于LLM来说,这很棘手——但并非不可能。
    • 设计系统来:
      • 记录每个Prompt和响应。
      • 将决策追溯到基础检索数据或约束。
      • 提供人工可读的理由(链式思考或事后解释)。
      • 明确回退路径(“我们无法验证模型的计划,因此我们使用了回退策略。”)

案例研究:YieldCube——去中心化金融的有界宇宙

为了说明如何在世界上最苛刻的确定性领域之一中架构一个有界宇宙,可以考虑去中心化金融(DeFi)领域。DeFi在公共区块链上运行,交易是不可变的、可验证的,并且需要绝对的精度。LLM固有的那种概率模糊性没有容身之地。不正确的行动可能导致资金的不可逆转的损失。

YieldCube架构解决了这一挑战,它是一个DeFi操作系统,将AI代理嵌入到严格定义的确定性环境中。它是上述蓝图的实际应用。

  1. 定义边界:通用协议网关
    • 系统的主要接口是通用协议网关(UPG),它对AI代理的操作环境设置了明确且可执行的限制。
    • 有界数据访问:防止代理在未经验证的信息上运行或臆造事实。其知识严格限于两个来源:直接从链上智能合约读取的数据,以及来自白名单的、确定性提供的数据流的信息。
    • 约束工具访问:代理无法发明行动。其可能的操作范围严格限于UPG公开的功能,例如存款、质押或领取奖励。
    • 结构化输出:代理的意图必须格式化为结构化的、机器可读的调用(例如,通过MCP或专用API)。不允许执行自由格式的文本,迫使LLM的概率推理转化为系统可以解析和验证的确定性指令。
  2. 委托确定性:链上执行
    • YieldCube严格遵循将任务委托给确定性组件的原则。AI代理本身不执行计算或执行交易。它形成一个提案,然后将其传递到区块链以供执行。以太坊虚拟机(EVM)是一个确定性状态机;它将以形式上的确定性执行交易,或以清晰、可验证的错误失败。
  3. 将验证视为头等公民:Yobex Guard
    • 在代理提出的任何交易发送到区块链之前,它必须通过一个称为Yobex Guard的关键验证层。该组件充当系统的确定性保护措施,执行LLM无法自行遵循的规则。这些保护措施包括:
      • 基于角色的权限:代理是否被授权执行此操作?
      • 策略执行:建议的交易是否违反了预设规则,例如支出限制或白名单合约地址?
      • 时间锁:是否观察到敏感操作的强制等待期?
    • 如果代理尝试生成不安全或未经授权的交易,Guard会通过设计以确定性方式阻止它,从而将信任从概率模型转移到可验证的环境。
  4. 可审计性和可追溯性
    • 最后,系统执行的每个操作都是在公共账本上记录的链上交易。这提供了一个不可变的且完全透明的审计跟踪,满足了系统始终可以回答“我们知道它做了什么以及为什么”的关键要求。

结论:从语言到逻辑

我们正在进入一个LLM将越来越多地触及高风险决策的时代——不仅仅是起草您的电子邮件,还要分析病史、解释财务风险、提出法律策略或指导关键基础设施。这些领域中,“足够接近”是不够的——决策必须是可追溯的、可验证的,并且最重要的是,可重复的。

但LLM并非为此而生。它们是统计工具,而不是确定性引擎。它们的力量来自其训练的庞大性和其流畅性的优雅性——而不是来自形式逻辑、事实确定性或对约束的遵守。试图通过Prompt或程序性诱导使它们具有确定性是不得要领的。这就像试图通过给爵士乐音乐家一个节拍器来将他们变成古典钢琴家。

解决方案不是改变LLM的本质——而是改变我们使用它们的方式。我们不会要求实习生发射火箭。我们要求他们做笔记、总结发现、起草提案——所有这些都在审查和监督的范围内。LLM也是如此。在一个有界宇宙中——其中数据经过整理、工具是确定性的、输出是结构化的,并且每个操作都是可审计的——LLM可以发光。在该边界之外,它们是一种负担。

这种转变是必须发生的:从LLM作为自主决策者到LLM作为强大的、有界的协作者。从我们希望表现良好的模型,到我们知道会表现良好的系统。因为在一个确定性的世界中,信任不是通过口才赢得的——而是通过可预测性赢得的。