想使用 AI 为你的工作流程加速吗?本文将深入探讨如何将 OpenAI 的 Chat 模型 与强大的 n8n 平台集成。 如果你觉得一脸懵,不清楚之前的视频内容,建议先回顾一下。在之前的视频中,我们尝试了 Ollama 和本地托管的 LLM。虽然 Ollama 免费且灵活,但它需要强大的硬件支持。相比之下,OpenAI 提供了一个基于云的解决方案,不需要额外的设备,提供可靠的性能,而且价格实惠 💸。让我们深入了解一下,逐块(或者说逐个 token?😉)地进行分解。

1. 获取你的 OpenAI API 密钥 🔑:迈向智能自动化的第一步

要在 n8n 中设置 OpenAI,首先需要在 openai.com 创建一个帐户。 创建账户后,你需要获取你的 OpenAI API 密钥。这个密钥就像是你访问 OpenAI 功能的通行证,务必妥善保管。

实际案例: 假设你正在构建一个客户服务聊天机器人。你需要将客户的查询发送到 OpenAI 的 Chat 模型,然后将回复发送回客户。这个过程需要你的 API 密钥才能完成。

数据支撑: OpenAI 对 API 的使用进行计费,根据 token 的数量(即文本的长度)收费。了解 OpenAI 的定价模型至关重要,可以帮助你控制成本。例如,使用 GPT-3.5 Turbo 模型,每 1,000 个 token 的费用约为 $0.002。这意味着一个包含 500 个 token 的查询和回复的往返费用约为 $0.001。

获取 API 密钥的步骤:

  1. 访问 openai.com 并注册一个帐户。
  2. 登录你的帐户。
  3. 点击 “View API Keys”。
  4. 点击 “Create new secret key”。
  5. 给你的密钥起一个名字,然后复制密钥。请务必保存好你的 API 密钥,因为你只能看到一次。

2. n8n 的强大之处:自动化工作流程的核心

n8n 是一个强大的开源工作流程自动化平台,它可以帮助你连接各种应用程序和服务,并自动化重复性任务。 它的可视化的界面使得创建复杂的工作流程变得简单易懂,无需编写大量的代码。

实际案例: 假设你每天需要从各种社交媒体平台收集数据,然后将这些数据汇总到 Google Sheets 中。使用 n8n,你可以创建一个自动化的工作流程,它会自动从社交媒体平台收集数据,并将这些数据格式化后添加到 Google Sheets 中,从而节省大量时间和精力。

数据支撑: n8n 支持数百种不同的应用程序和服务,包括 Slack、Google Sheets、Twitter、GitHub 等等。这意味着你可以将 n8n 集成到你现有的工作流程中,并自动化各种不同的任务。根据 n8n 官方网站的数据,使用 n8n 可以将工作效率提高 50% 以上。

n8n 的核心概念包括:

  • 节点 (Nodes): 每个节点代表一个特定的操作,例如从 API 获取数据、转换数据或发送电子邮件。
  • 工作流程 (Workflows): 工作流程是由一系列节点组成的,这些节点按照特定的顺序执行,从而完成一个特定的任务。
  • 触发器 (Triggers): 触发器用于启动工作流程。例如,你可以设置一个定时触发器,让工作流程每天定时运行。

3. 在 n8n 中集成 OpenAI:配置 OpenAI 节点

现在我们已经获得了 OpenAI API 密钥,接下来我们需要在 n8n 中配置 OpenAI 节点。

实际案例: 假设你想创建一个自动化的内容生成工作流程。你可以使用 n8n 从博客文章中提取关键词,然后将这些关键词发送到 OpenAI 的 Chat 模型,并要求它根据这些关键词生成一段引人入胜的介绍。

数据支撑: OpenAI 提供了各种不同的 Chat 模型,例如 GPT-3.5 Turbo、GPT-4 等。不同的模型具有不同的功能和性能,你需要根据你的需求选择合适的模型。GPT-4 模型通常比 GPT-3.5 Turbo 模型更强大,但价格也更高。

配置 OpenAI 节点的步骤:

  1. 在 n8n 中创建一个新的工作流程。
  2. 搜索 “OpenAI” 并将 OpenAI 节点添加到工作流程中。
  3. 在 OpenAI 节点的设置中,选择 “Chat” 操作。
  4. 输入你的 OpenAI API 密钥
  5. 选择你想要使用的 Chat 模型,例如 “gpt-3.5-turbo”。
  6. 在 “Messages” 字段中,输入你想要发送到 OpenAI 的消息。 你可以使用表达式来动态生成消息内容。例如,你可以使用 {{ $json["title"] }} 来引用工作流程中前一个节点输出的标题。
  7. 根据需要配置其他选项,例如 “Temperature” 和 “Max Tokens”。
    • Temperature: 控制生成文本的随机性。值越高,文本越随机。
    • Max Tokens: 控制生成文本的最大长度。

4. 构建你的第一个 OpenAI Chat 工作流程:实践出真知

现在我们已经配置了 OpenAI 节点,可以开始构建我们的第一个 OpenAI Chat 工作流程了。

实际案例: 让我们创建一个简单的聊天机器人,它可以回复用户的消息。

数据支撑: 为了构建一个成功的聊天机器人,你需要仔细设计你的提示语 (Prompts)。提示语是发送到 OpenAI 的指令,它告诉 OpenAI 你希望它做什么。一个好的提示语应该清晰、简洁、并且包含足够的信息。

工作流程的步骤:

  1. 添加一个 “Webhook” 节点作为工作流程的触发器。 Webhook 节点可以接收来自外部应用程序的 HTTP 请求。
  2. 配置 Webhook 节点,使其监听来自用户的消息。
  3. 添加一个 “Set” 节点,用于设置 OpenAI 节点的输入。
    • 在 “Set” 节点中,创建一个名为 “message” 的新字段,并将其值设置为 {{ $json["body"]["message"] }}。 这将从 Webhook 节点接收到的消息中提取消息内容。
  4. 添加一个 OpenAI 节点,并将其配置为使用 “Chat” 操作。
    • 在 OpenAI 节点的 “Messages” 字段中,输入以下内容:
      json
      [
      {
      "role": "system",
      "content": "你是一个友好的聊天机器人,可以回答用户的问题。"
      },
      {
      "role": "user",
      "content": "{{ $json["message"] }}"
      }
      ]

      这定义了聊天机器人的角色 (system) 和用户的消息 (user)。
  5. 添加一个 “Respond to Webhook” 节点,用于将 OpenAI 的回复发送回用户。
    • 在 “Respond to Webhook” 节点中,将 “Body” 字段设置为 {{ $json["choices"][0]["message"]["content"] }}。 这将从 OpenAI 的回复中提取消息内容。

5. 优化你的 OpenAI 工作流程:性能与成本控制

构建 OpenAI 工作流程后,你需要对其进行优化,以提高性能并控制成本。

实际案例: 假设你的 OpenAI 工作流程需要处理大量的文本数据。你可以使用分块技术将文本数据分成较小的块,然后将这些块分别发送到 OpenAI。这可以减少单个请求的延迟,并提高整体性能。

数据支撑: OpenAI 对 API 的使用进行了限制,包括每分钟的请求数量和每个请求的 token 数量。你需要了解这些限制,并根据你的需求进行调整。

优化技巧:

  • 选择合适的模型: 不同的 Chat 模型 具有不同的价格和性能。选择最适合你需求的模型可以帮助你控制成本。
  • 优化提示语: 一个好的提示语可以帮助 OpenAI 更快地生成高质量的回复。
  • 使用缓存: 如果你需要频繁地执行相同的请求,可以使用缓存来存储 OpenAI 的回复。这可以减少 API 的调用次数,并提高性能。
  • 限制 token 数量: 限制每个请求的 token 数量可以帮助你控制成本。
  • 使用异步请求: 使用异步请求可以避免阻塞 n8n 的主线程,并提高整体性能。
  • 监控 API 使用情况: 定期监控你的 API 使用情况可以帮助你及时发现并解决问题。

6. Ollama 与 OpenAI:本地部署与云端服务的权衡

文章提到,之前探讨过 Ollama 和本地托管的 LLM。Ollama 提供了在本地运行大型语言模型 (LLM) 的能力,而 OpenAI 则提供基于云的解决方案。

实际案例: 假设你需要在安全的环境中处理敏感数据。在这种情况下,使用 Ollama 在本地运行 LLM 可能更安全。另一方面,如果你的硬件资源有限,或者你需要快速部署 LLM,那么使用 OpenAI 可能更合适。

数据支撑: Ollama 的性能取决于你的硬件配置。如果你的 CPU 和 GPU 不够强大,那么 LLM 的运行速度可能会很慢。另一方面,OpenAI 的性能是可预测的,因为它运行在云端。

选择 Ollama 还是 OpenAI 取决于你的具体需求。以下是一些需要考虑的因素:

  • 数据安全性: 如果你需要处理敏感数据,那么使用 Ollama 在本地运行 LLM 可能更安全。
  • 硬件资源: 如果你的硬件资源有限,那么使用 OpenAI 可能更合适。
  • 性能: Ollama 的性能取决于你的硬件配置,而 OpenAI 的性能是可预测的。
  • 成本: Ollama 是免费的,而 OpenAI 需要付费。
  • 易用性: OpenAI 比 Ollama 更容易使用,因为它不需要你配置硬件或软件。

7. 结论:n8n 与 OpenAI 的结合,开启自动化新篇章

通过本文的介绍,我们了解了如何在 n8n 中设置 OpenAI Chat 模型,并构建了一个简单的聊天机器人。n8n 与 OpenAI 的结合,可以帮助我们自动化各种不同的任务,例如内容生成、客户服务、数据分析等等。掌握 n8n 与 OpenAI 的集成技巧,将帮助你更好地利用 AI 技术,提高工作效率,并创造更多的价值。 赶快行动起来,开始探索 n8n 和 OpenAI 的无限可能吧!