随着大语言模型(LLM)在现实世界应用中扮演着越来越重要的角色,确保它们与人类偏好和价值观对齐至关重要。从人类反馈中强化学习(RLHF)已经成为实现这种对齐的主流框架。在RLHF中,奖励模型和用于优化语言模型以获得反馈的强化学习算法是两个关键组成部分。本文将深入探讨奖励模型架构,比较流行的RL算法,并探讨它们在 LLM 微调中的权衡、挑战和实际应用考虑因素。

奖励模型:人类偏好的代理

奖励模型(Reward Model, RM)是一种被训练用于估计由LLM生成的输出之间的人类偏好的模型。它充当人类反馈的代理,通过为模型生成的输出分配标量奖励值来指导强化学习算法的优化步骤。简而言之,它告诉模型哪些输出更好,应该更加倾向于生成。

构建奖励模型的工作流程通常包括以下步骤:

  1. 数据收集: 人工标注者根据质量对LLM生成的多个输出(例如,补全或答案)进行排名。例如,给定一个问题,LLM可能会生成多个答案,人工标注者需要对这些答案进行排序,标注出哪个答案最准确、最有用、最清晰等等。
  2. 训练: 训练一个神经网络来预测对首选响应更高的奖励。这个网络学习将输入(LLM的输出)映射到一个奖励分数。
  3. 使用: 然后,在强化学习算法(例如,PPO)中使用此训练后的RM来指导LLM生成更受欢迎的响应。LLM 通过不断尝试生成更高的奖励分数来学习,从而更符合人类的偏好。

奖励模型在LLM对齐过程中至关重要,因为它能够自动化和扩展人类反馈。如果没有奖励模型,我们就需要不断地让人类来评估LLM的输出,这显然是不现实的。奖励模型为我们提供了一种高效的方式来训练LLM,使其能够更好地服务于人类。

奖励模型架构:比较与选择

奖励模型架构通常基于Transformer backbone。然而,不同实现方式在架构设计上存在差异。以下是常见方法的比较:

  • Pairwise Ranking (配对排序): OpenAI 的奖励模型就是一个典型的例子。它采用配对偏好排序方法,即:

    • 对示例prompt和多个补全进行抽样。
    • 人工标注者对补全进行排名。
    • 训练奖励模型,使用逻辑边际损失(logistic margin loss)为更好的补全分配更高的分数。

    这种方法使奖励模型能够很好地泛化到排名任务,并且足够轻量,可以进行迭代训练。例如,在训练一个用于总结新闻文章的奖励模型时,我们可以让LLM生成多个摘要,然后让人工标注者对这些摘要进行排序。奖励模型会学习给更准确、更简洁的摘要分配更高的分数。

  • Pointwise Regression (逐点回归): 这种方法直接预测单个输出的奖励分数。 它可以简化训练过程,但可能不如配对排序方法准确,尤其是在需要区分细微偏好的情况下。

  • Contextual Scoring (上下文评分): 这种方法考虑了LLM输出的上下文信息,例如prompt和LLM的状态,来预测奖励分数。这可以提高奖励模型的准确性,但也会增加其复杂性。

关键的训练技巧包括:

  1. Pairwise Loss Function (配对损失函数): 常用的配对损失函数包括 hinge loss 和 logistic loss。 这些损失函数鼓励奖励模型为首选输出分配更高的分数,为非首选输出分配更低的分数。
  2. Reward Normalization (奖励归一化): 为了确保训练稳定性,通常会对每个批次或整个数据集的分数进行归一化。一些方法会剪切奖励值或在输出处应用tanh激活函数。

选择合适的奖励模型架构取决于具体的应用场景和资源限制。如果需要高精度和泛化能力,配对排序方法通常是更好的选择。如果需要更简单的训练过程,逐点回归方法可能更合适。

强化学习算法:微调LLM的策略

一旦训练好奖励模型,我们就进入了强化学习阶段,在此阶段,使用反馈来优化语言模型。以下是当今使用的主要强化学习算法

  1. Proximal Policy Optimization (PPO): PPO是RLHF流程中使用最广泛的算法。

    • 关键概念:
      • 优化一个策略(LLM)以最大化来自RM的预期奖励。
      • 使用裁剪的替代目标来避免大的策略更新。
    • 目标函数:(此处省略,因公式显示效果不佳)
    • 优点:
      • 稳定且可扩展。
      • 处理大型模型和大型数据集。
    • 缺点:
      • 需要仔细的超参数调整。
      • 采样效率低。

    PPO的核心思想是在更新策略时,限制策略的改变幅度,以避免因为过大的更新而导致训练不稳定。 举例来说,在使用PPO训练一个对话机器人时,我们会让机器人与用户进行对话,然后使用奖励模型来评估对话的质量。如果对话质量很高,PPO会稍微调整机器人的策略,使其更倾向于生成类似的对话。如果对话质量很低,PPO会避免大幅度地改变机器人的策略,而是逐步地进行调整。

  2. Direct Preference Optimization (DPO): DPO 是一种新兴的 PPO 替代方案,它绕过了对奖励模型的需求。

    • 想法:
      • 使用源自KL散度的对比目标,直接在人类偏好数据上进行优化。
    • 目标:(此处省略,因公式显示效果不佳)
    • DPO 通过优化模型以在人类标记的数据集中偏好更好的响应来避免奖励建模。
    • 优点:
      • 更简单的流程。
      • 不需要单独的奖励模型。
    • 缺点:
      • 灵活性较差; 不会泛化奖励预测。

    DPO 的核心优势在于它避免了训练奖励模型的复杂过程。它直接使用人类偏好数据来训练LLM,使其能够更好地符合人类的期望。例如,我们可以收集大量的人类偏好数据,例如,用户对LLM生成的不同文章摘要的偏好。然后,我们可以使用DPO来直接训练LLM,使其能够生成更符合用户偏好的摘要。

  3. KTO (KL-Constrained Optimization): KTO 是 DPO 和 PPO 之间的中间地带,它包括 KL 惩罚,但仍使用偏好。 当控制模型与基本行为的偏差程度时(例如,在避免幻觉的同时保持有用性),此方法很有用。

    KTO 结合了 DPO 和 PPO 的优点,既能够避免训练奖励模型的复杂过程,又能够控制模型行为的稳定性。

  4. Reinforce with Baseline (REINFORCE): 从理论上讲很简单,但实际上噪声很大。 由于高方差,现在很少单独使用。

    REINFORCE 是一种更早期的强化学习算法,它通过直接估计策略梯度来更新策略。然而,REINFORCE 的方差很高,这使得它难以训练。

选择合适的强化学习算法取决于具体的应用场景和资源限制。如果需要简单易用的方法,DPO 是一个不错的选择。如果需要更高的精度和控制能力,PPO 或 KTO 可能更合适。

评估:衡量LLM的对齐程度

在RLHF之后评估LLM的性能并非易事。方法包括:

  • 自动指标:
    • 相对于基础模型的胜率(使用RM或人类偏好)
    • 毒性/无害性得分(通过对抗性提示)
    • 校准和忠实度指标
  • 人工评估:
    • 人类根据有用性、相关性、清晰度和安全性等轴对输出进行排名。

自动指标可以提供快速且可扩展的评估,但它们可能无法完全捕捉人类的偏好。人工评估可以提供更准确的评估,但它们更昂贵且耗时。因此,通常需要结合使用自动指标和人工评估来全面评估LLM的性能。例如,我们可以使用自动指标来快速筛选出一些表现较好的LLM,然后使用人工评估来对这些LLM进行更详细的评估。

实际应用与考量

应用:

  • 聊天机器人(OpenAI ChatGPT、Anthropic Claude)
  • 搜索增强(Google Search、Bing)
  • 代码助手(GitHub Copilot、Replit Ghostwriter)
  • 客户服务和对话代理

挑战:

  • 奖励模型与真实用户意图不一致
  • 过度优化:当RL利用奖励功能中的弱点时
  • 泛化:在短输出上训练的奖励模型可能无法推广到长文档
  • 偏见:人类标记数据中固有的

在实际应用中,我们需要仔细考虑这些挑战,并采取相应的措施来缓解它们。例如,我们可以使用更准确的奖励模型,采用更鲁棒的强化学习算法,并对数据进行仔细的预处理,以减少偏见。此外,我们还需要不断地监控LLM的性能,并根据需要进行调整。

实际案例:

  • ChatGPT: OpenAI 使用 RLHF 来训练 ChatGPT,使其能够生成更自然、更流畅、更有用的对话。OpenAI 首先训练了一个奖励模型,该模型能够评估对话的质量。然后,他们使用 PPO 来微调 ChatGPT,使其能够生成更高的奖励分数的对话。
  • GitHub Copilot: GitHub 使用 RLHF 来训练 Copilot,使其能够生成更准确、更完整的代码建议。GitHub 首先训练了一个奖励模型,该模型能够评估代码建议的质量。然后,他们使用 PPO 来微调 Copilot,使其能够生成更高的奖励分数的代码建议。

这些案例表明,RLHF 是一种非常有效的技术,可以用于提高 LLM 的性能。

结论:奖励模型与强化学习的未来

奖励模型强化学习算法是驱动 LLM 与人类价值观对齐的核心引擎。为您的奖励模型选择正确的架构(无论是简单的线性头还是更复杂的上下文评分器)都会影响系统的可解释性和性能。同样,在 PPO、DPO 或其他强化学习算法之间进行选择取决于您在简单性、采样效率和精确控制之间的权衡。

随着 RLHF 的不断发展,奖励建模的更新替代方案(如 DPO 和模仿学习变体)越来越受欢迎,从而推动该领域朝着更有效和可控的微调策略发展。 理解这些活动部件(从奖励建模中的架构选择到高级强化学习算法)对于开发更安全、更有用的 AI 系统至关重要,对于构建或研究 LLM 的人来说,这一点至关重要。 未来,我们可以期待看到更多创新的奖励模型架构强化学习算法出现,这将进一步提高 LLM 的性能和安全性。 此外,我们还可以期待看到 RLHF 被应用于更广泛的领域,例如,医疗保健、教育和金融等。 总之,奖励模型强化学习算法是 LLM 对齐的关键技术,它们将在未来继续发挥重要作用。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注