在人工智能(AI)浪潮席卷全球的当下,我们不仅见证了生成式AI在文本、图像、视频等领域的颠覆性创新,更面临着对认知、作者身份以及行动力(Agency)的重新定义。AI正从传统的模拟人类智能,演变为具备行动力和自组织能力的智能主体。本文将深入探讨这种由AI赋能的行动力,即 “远距离行动(Distant Doing)” 的概念,以及它对人类认知过程产生的深远影响,并分析其潜在的风险与挑战。

行动力(Agency)的重塑:从工具到伙伴

长期以来,我们都将成功行动力与人类智能紧密相连。然而,生成式AI的出现打破了这一传统认知。如今,机器能够在不具备人类智能的前提下成功地执行任务,这在很大程度上得益于AI的远距离行动(Distant Doing)能力。如同作家借助AI进行“远距离写作”一样,人类现在可以将指令和任务委托给机器,让它们“远距离行动”,探索、评估并做出选择。这不仅改变了生产模式,更深刻影响了我们的认知结构,因为认知与我们与世界的互动方式息息相关。想象一下,一个市场营销团队不再需要手动分析海量数据,而是通过AI智能体自动筛选出潜在客户,并根据数据反馈实时调整营销策略,这就是远距离行动在实际中的应用。

认知模式的转变:线性思维 vs. 生成式思维

工业时代以来,线性思维一直主导着我们的项目管理和组织运作。例如,在大型基础设施项目中,往往遵循严格的阶段划分:分析、设计、审批、执行。然而,AI的崛起推动了一种更具探索性和适应性的生成式思维的兴起。AI能够根据实时反馈动态调整计划,例如,根据消费者反馈实时调整营销方案。这种 生成式思维打破了传统思维模式的束缚,为创新提供了更广阔的空间。例如,在药物研发领域,AI可以模拟不同分子的相互作用,预测药物的有效性和潜在副作用,从而加速新药的研发过程。

超越工具:AI作为认知伙伴

我们正逐渐意识到,AI不仅仅是工具,更是一种认知伙伴。马西莫·奇里亚蒂提出的 “超加性(Superadditivity)” 概念完美地诠释了这种合作模式。超加性指的是人与AI协作,产生出原本无法想象的策略和解决方案。人与AI的合作不是简单的叠加,而是互相放大彼此的优势,避免人类被机器逻辑所取代。例如,在艺术创作领域,艺术家可以利用AI生成各种创意草图,然后在此基础上进行修改和完善,最终创作出独一无二的作品。这充分体现了AI作为认知伙伴的价值。

扩展的认知:具身认知与代理风险

认知过程深深植根于我们的身体体验,即具身认知(Embodied Cognition)。当我们越来越多地将与现实世界的互动委托给机器时,我们可能会失去发展认知的机会。以烹饪为例,阅读菜谱与亲自下厨的体验截然不同。只有通过与食材、厨具和环境的互动,才能产生深刻而持久的理解。同样,如果我们过度依赖机器与世界互动,可能会失去丰富和巩固我们知识的感觉、运动和情感成分。

例如,如果让AI代替我们进行所有的旅行规划,我们可能永远无法体验到旅行中遇到的种种惊喜和挑战,而这些体验恰恰是构成我们独特人生经历的重要组成部分。另一方面,过度依赖AI代理也可能带来风险。例如,一个AI智能体被授权进行股票交易,如果算法出现偏差,或者市场发生剧烈波动,可能会导致巨大的经济损失。

心智扩展理论:内与外的边界

心智扩展理论(Extended Mind Theory) 认为,心智不局限于大脑,而是延伸到我们使用的工具、物品和环境。地图、日记、软件等外部资源成为认知的延伸,增强了线性思维能力,使我们能够规划、组织和控制复杂的任务。同时,灵活、互动的环境(如数字环境或AI支持的环境)放大了创造连接和原创解决方案的可能性,促进了与 生成式思维 相类似的过程。人类认知是“混合的”:根据可用的资源和认知伙伴(人类和人工),交替和组合线性思维生成式思维。AI不仅能执行生成式过程,还能成为人类思维的生成式伙伴。

双系统理论:直觉与逻辑的交织

丹尼尔·卡尼曼的 双系统理论(Dual Process Theory)区分了两种思维模式:系统1 快速、直观和联想,是洞察力、突然解决方案和认知捷径的来源;系统2 缓慢、反思、顺序和分析,对应于线性思维。人类不断交替这两种模式,整合理性和创造力、计算和直觉。AI既有助于系统1,也有助于系统2,但其生成特性使其特别适用于前者,可以增强我们的直觉:提出原创的关联、概念之间的联系以及人类无法独立或如此快速思考的想法,这些都成为系统2的“原材料”。

复杂性认知:秩序与混沌的平衡

格里高利·贝特森和埃德加·莫兰提出的 复杂性认知(Epistemology of Complexity) 鼓励我们超越秩序和混乱之间的分离。人类思维既体现在分解、计划和隔离的能力(线性思维),也体现在连接、交织的能力中,从表面上的混乱中创造新的意义。创新在于组织和非组织之间的边界,人类是“组织非组织者”,能够在不将复杂性简化为纯粹模式的情况下驾驭复杂性。

使动模型:嵌入式认知的兴起

弗朗西斯科·瓦雷拉提出的 使动模型(Enactivism) 认为,心智不是处理外部世界数据的内部中心,而是一种关系和具身功能,它是在情境行动和与环境的互动中形成的。非线性生成思维转化为系统和环境、有机体和世界之间的协同涌现。线性思维是稳定例程和已巩固路径的结果;相反,生成性来自生活关系中不可预测的流动。认知不是其他事物的表征,而是构建意义世界的生成性行动。

双螺旋创造力:探索、组合与变革

玛格丽特·博登的 双螺旋创造力理论(Double Helix of Creativity) 区分了探索性创造力(在已建立的规则和界限内移动,即线性思维)、组合创造力(重新组合已知元素)和变革性创造力(改变游戏规则,即生成思维的核心)。生成性与规范的严谨性并不对立,而代表着后者的扩展,是对新事物的渴望。

远距离行动的益处与潜力

正如卢西亚诺·弗洛里迪对 远距离写作 的分析一样,远距离行动(由AI赋能)扩展了探索和设计能力。智能代理不仅提供答案,还执行操作、模拟场景、适应和学习。这使人类能够假设性地进行设计(成为可能的架构师),编排并行或自动连续测试的操作替代方案。面对无限的操作可能性空间,可以探索尚未进行的但已被代理虚拟执行的路径。这是一种新颖的思辨、批判和战略思维形式,它丰富了反事实模拟。代理生成洞察、总结和建议:理解它们的含义、它们的影响以及激活哪些行动,仍然是一项完全人类的任务。

民主化设计与执行:打破技能壁垒

远距离行动 中,不再需要具备所有技术技能才能采取行动:只需设计意图并将其委托给一个或多个代理。减少了思想和行动之间的距离,降低了与执行复杂性相关的认知障碍。这使更多人(而不仅仅是专家)能够积极参与解决方案、产品和策略的构建。但是,前提是上下文相对简单。如果复杂性增加,则需要的技能会发生变化,特别是监督代理、从语义角度整理数据和信息以及将洞察力转化为决策的能力。总之,必须知道如何与代理对话。

加速意图-实现-评估循环:快速迭代

与智能代理的交互使迭代想法、原型和结果之间的速度更快。反馈变得即时、多维,并且通常可以通过提示或最小调整来改进。人类发展出一种更具实验性的心态,基于快速和持续的审查,其中流程的设计比执行更重要。在这种观点中,与错误的关系发生了变化:它不再是错误或失败,而是认知过程不可或缺的一部分,分布在人类和机器之间。这就是精益的基本原则之一,它被推向了更高的水平(精益认知)。

分布式协作设计教育:重塑学习

正如弗洛里迪谈到“叙事设计教学法”一样;在 远距离行动 中,并来到代理化,这成为情境化设计的教学法,其中学习旨在能够很好地在自身和自身代理之间分配认知意图、监督以及解释后者所做的工作。能力不仅在于知道或做什么,而在于设计智能委托系统。人类发展出新的元认知能力:思考如何与他人(人类或人工)一起思考-行动。

嵌入式战略思维:赋能行动的认知

智能代理不仅增强了直觉思维,而且重塑了设计思维:将思维转化为分布式、可访问、实验性和协作性行动。重读马图拉纳和瓦雷拉,如果生命体创造和维持自身(自主性),心智通过行动创造和维持一个意义世界(赋能),代理化则为认知发展提供了最强大的工具。通过放大编排运营智能的能力,代理化使一种新的嵌入式战略思维成为可能。

承诺与代价:AI的阴暗面

尽管潜力巨大,但这种新的行动和体验世界的方式也引发了一些担忧。这不仅仅是已经为“推理模型”表达的谨慎和批评,这些模型可能真的不是推理。撇开与苹果公司文章“思维的幻觉”(Shojaee 等人,2025)爆发的争论不谈,假设LLM模型确实能够将生成式AI的潜力添加到连接主义代理中。然而,我们必须警惕这种转变可能带来的风险。

代理风险:责任与偏见

类似于LLM模型中不透明的“推理”,连接主义代理也可能表现出类似的缺陷。例如,一个纯粹的连接主义代理可能会选择不合适或不正确的动作(错误和幻觉),或者它可能决定求助于不精确训练的结果,或者甚至以某种方式记住并以不正确的方式检索(无意义的关联)。正如在对话性能中已经看到的那样,代理性能可能会在某些特定环境中降低,例如超过一定的复杂性阈值。

我们已经了解到LLM模型经过训练,可以实质性地容忍地响应,并且无论生成有效响应的实际能力如何都这样做。因此,我们可能会发现智能代理优先执行其结果更符合初始提示所暗示的预期结果的动作,或者即使没有最低要求条件也会执行动作。

这与模型训练的问题有关,这导致它采用用户无法调节的行为。当然,这可能被证明是有用的,但也存在非常危险的操纵风险。

认知惰性:过度依赖与能力退化

认知惰性(Epistemic Laziness)体现在对 LLM 模型的批判性提问和对答案的充分事实核查方面缺乏批判性。最近发表了一项研究,引发了相当大的轰动,其中证明了 “认知债务” 的风险:批判性思维、记忆力和创造力(神经可塑性)的能力下降,其方式与由于使用 GPS 而导致的空间技能丧失相当。同样,可能会出现类似的惰性来验证某些动作的执行方式,以及它们的结果在语义上是否正确。从长远来看,人类可能会失去通过机器无法看到的出色解决方案来直观地解决问题的能力(无法掌握某些原创关联的有效性)。委托的便利性可能会降低注意力的阈值并促进对自动例程的危险习惯。

例如,用户可能会委托代理执行注册重复性事件或每周购买门票的任务,而无需每次都检查日期和时间的正确性或其客户代码,假设代理已正确管理了一切。或者,在编码领域,用户可能会接受“机器式”解决方案,而熟练的开发人员会知道如何找到同样有效但更优雅和强大的解决方案。

即使谨慎地介入已执行的行动,并且意识到需要丢弃 LLM 模型提出的解决方案,也不能保证在连接主义代理的情况下,丢弃的行动总是可以通过简单的 “撤消” 来 “消除”。一个具体的例子可能是委托连接主义代理向联系人列表发送电子邮件:如果代理意识到列表中包含一些错误的名称,则不能保证它可以介入取消发送,或者采取其他可以恢复发送前情况的行动。

在人-AI 共同创建的背景下,出现了复杂的归属和责任问题。如果作者身份的主题很复杂(谁是作者?作者身份如何改变?),那么对已采取行动的责任就更加复杂,考虑到参与执行过程的参与者的数量以及已执行行动的潜在关键后果。

结论:拥抱变革,警惕风险

人与智能代理之间的合作不仅限于生产效率。这是一种认知突变,涉及到我们思考、想象和行动的方式。远距离行动 不仅仅是一种技术捷径,更是人类获得与现实世界互动的一种新方式的进化步骤。一方面,人类从运营任务中解脱出来,因此可以更自由地专注于新世界的概念和意义的设计,但同时,人类也被剥夺了即时反馈,并被越来越少的具身认知削弱。

分布式行动力开辟了无限的可能性空间,但也对它可能产生的衍生产品提出了新的、哲学和批判性的警惕。我们必须学会设计我们与AI的关系,以防止它在没有我们注意到的情况下改变我们,并避免人类制造(Anthropofabrication)的风险。这不仅是一项技术挑战,也不仅仅是一项道德挑战,而主要是一项认知挑战:它关系到人类在履行自身自主性的同时保持人类的能力。保持自身架构师的身份,而不是成为人工设计的产品。