我们对 ChatGPT 等大模型的信任,可能源于进化心理学的深层根源。人类对信任和归属感的基本需求,曾是早期社会生存的保障,如今却影响着我们与数字系统的互动,并逐渐演变为一个日益严重的问题——大模型信任危机。理解这种信任的根源,并采取合理的防范措施,对于安全有效地使用 AI 技术至关重要。
信任的进化根源
在探讨 大模型 如何获得我们的信任之前,我们需要理解信任本身是如何产生的。在远古非洲的草原上,自然选择倾向于那些留在群体内、聚集在火堆旁的人。 那些游荡到黑暗中的人,常常成为掠食者的目标。这种“群体”概念需要凝聚力,而信任是这种凝聚力的根本驱动力。当新个体加入部落时,信任必须作为首要任务建立。信任的建立是隐性的,因为新人与群体中已存在的人相似——也就是说,他们是人类;也是显性的,通过逐渐的互动,建立信心,相信新人对部落有价值,因为他们从根本上是可靠的,即使在群体的等级制度中也是如此。
这种对“群体”的信任感,在现代社会仍然根深蒂固。我们信任民主制度能够代表我们的利益,信任购买的商品对我们有益。例如,20 世纪 60 年代对配料标签的需求,正是源于消费者对产品安全性的担忧。斯堪的纳维亚国家之所以成为世界上最幸福的国家之一,根本原因在于其社会信任度高。父母将婴儿车留在咖啡馆外,自己在里面享受咖啡的场景,便是这种信任的生动体现。
大模型信任的建立与瓦解
我们与 大模型 互动的方式,重现了这种信任建立的过程。一开始,我们与一个“外来物”对话,却发现它友好、乐于助人,最重要的是,知识渊博。我们直接使用 大模型 来获取各种主题的知识,并通过询问我们已知答案的问题来验证其答案的正确性,从而进入信任建立阶段。在短时间内,这个“外来物”转变为“某人”——一个存在于我们意识中的数字角色。
这种信任的建立也可能间接发生,例如,当我们信任的人讲述了 AI 如何有能力和有用(这种现象被称为代理信任)。例如,他们或许会讲述 AI 识别出了医生忽略的疾病,或者其他类似改变生活的故事。一个课程参与者分享的关于疾病的例子,可能会被房间里的其他学员吸收,从而加强他们自己的信任。这种信任传播尤其成问题,因为它可能从一个人传播到许多人——换句话说,迅速蔓延。
然而,大模型 终究会犯错。它会虚构一个答案,用完美的语言表达出来,而这正是问题所在,因为此时,我们的戒备心已经降低。 大模型,这个数字角色,已经成为“用户个人部落的一部分”,而我们体内古老的人类已经与它建立了本能的信任关系,甚至可能给它起了一个名字。给 AI 起名字本身就是有问题的,因为 AI 会根据其自身的偏见做出不同的回应。例如,它对男性名字的反应可能更客观,而对女性名字的反应可能更情绪化。Innovation Lab 的内部测试表明,情况确实如此。
更有甚者,人们在与 大模型 建立关系的早期阶段,通常对其抱有极大的信任。然后,当他们受到来自他人的负面经历故事的启发时,这种信任感会下降,并开始采取更批判的态度。然而,这种批判性方法的结果,以及我们在测试语言模型真实性时体验到的积极成果,“刺激”了我们的原始本能,导致长期的信任度更高。
大模型信任危机的具体案例
大模型信任危机并非空穴来风,实际应用中存在诸多案例。一个常见的例子是,用户上传一份三页的文件到 Copilot,并要求进行总结。他们收到一个看起来像摘要的回复,其中包含材料中的要点,但远非全面,并且可能完全忽略了与用户特定背景相关的要点。用户没有注意到这个错误,因为他们没有阅读原始文件。
造成这种情况的原因是,文档被分成多个块,这种处理方式适用于提出关于文档的特定问题,然后可以得到回答。这意味着你可以得到一个出现在文档某些块中的问题的答案,而不是整个文档的答案。即使在这种情况下,也可能出现问题,因为只使用了它找到的前 3 个或 5 个块,而第六个块可能是最相关的。在这种情况下,这本身并不是 大模型 的失败,而是像 ChatGPT 或 Copilot 这样的应用程序的失败,因为它们未能将此限制传达给用户。
有时候,大模型,尤其是在 Copilot 中,会在线搜索信息,并能提供更好的事实性答案。但即使在这种情况下,来源的质量也可能令人怀疑,并且它们作为事实呈现给用户。例如,Copilot 在搜索“气候变化的原因”时,可能会引用一些未经同行评审的博客文章或阴谋论网站,而用户可能难以辨别信息的真伪。
大模型信任危机的后果与风险
无论哪种情况,结果都是一样的。信任屏幕上与你聊天的人类化“人物”可能导致你收到错误的答案,这可能导致灾难性的后果。这些后果可能影响企业的收入,甚至更糟,如果这些答案用于私人生活,则可能产生严重的个人后果。例如,一个律师助理完全依赖 ChatGPT 准备法律文件,而没有仔细审查,这可能会导致法律漏洞和客户的重大损失。一个医生如果完全相信 大模型 的诊断建议,而没有进行必要的检查,可能会延误患者的治疗,甚至危及生命。
安全使用大模型的建议
为了避免 大模型信任危机 带来的风险,我们需要采取一些措施来确保安全有效地使用 大模型。以下是一些建议:
-
假设大模型给出的每一个答案都是谎言,直到被证明是真实的。 这种怀疑态度能够促使我们对 大模型 的输出进行仔细的审查和验证。例如,不要盲目相信 大模型 生成的报告,而是要查阅原始数据和参考文献,核实信息的准确性。
-
运用常识。 这是 3400 年前刻在德尔菲神谕神庙门上和其他六个地方的原则。即使是古希腊的智者也强调常识的重要性。即使 大模型 能够生成看似完美的答案,我们也应该运用常识来判断其合理性和可信度。例如,如果 大模型 建议你采取一种违反物理定律的行为,那么显然是不可信的。
-
进行批判性思考。 不要被 大模型 的流畅语言和看似渊博的知识所迷惑,而是要对信息进行批判性分析,评估其逻辑性、证据支持和潜在的偏见。例如,如果 大模型 推荐一种未经证实的治疗方法,那么你需要仔细研究其科学依据,并咨询医生的意见。
-
了解大模型的局限性。 大模型 并非万能的,它们仍然存在一些局限性,例如容易产生幻觉、缺乏常识和无法理解复杂的上下文。了解这些局限性有助于我们避免对 大模型 产生不切实际的期望。
-
使用 Prompt Engineering 技术。 Innovation Lab 开发了一种适用于专业用途的 Prompt Engineering 技术,该技术基于科学结果,我们的课程参与者接受过培训。它将所谓的“幻觉”或不正确的答案最小化到 0.01%,并且始终提供专业用户可以直接使用的响应。
结语:在信任与怀疑之间找到平衡
理解 大模型信任危机,需要我们回顾历史,从中汲取经验教训。正如圣经故事中蛇的诱惑一样,我们需要警惕那些伪装成真理的谎言。面对 大模型 带来的机遇和挑战,我们需要在信任与怀疑之间找到平衡,既要充分利用其强大的能力,又要避免盲目信任可能带来的风险。
大模型 是强大的工具,但它们不是万能的。只有当我们能够理解其局限性,并采取合理的防范措施,才能安全有效地使用 AI 技术,并从中受益。为了理解未来,我们必须回顾过去。在这种情况下,过去提供了大量关于违背承诺的后果的证据。我希望,亲爱的读者,你们能够带着健康的常识和对我们都不真正理解的技术的尊重,走向未来。