大模型记忆力深度解析:从“死记硬背”到“真正理解”的飞跃
大型语言模型(LLM),如GPT系列,在各个领域展现出惊人的能力。然而,它们究竟是简单地“鹦鹉学舌”,重复训练数据中的信息,还是真正地“理解”并泛化?这是一个长期困扰研究人员的核心问题。Meta、Google DeepMind、Cornell University和NVIDIA的联合研究为此提供了新的视角,他们开发了一套创新的方法来区分大模型的记忆与泛化能力,揭示了AI系统记忆容量的极限,以及从记