想使用 AI 为你的工作流程加速吗?本文将深入探讨如何将 OpenAI 的 Chat 模型 与强大的 n8n 平台集成。 如果你觉得一脸懵,不清楚之前的视频内容,建议先回顾一下。在之前的视频中,我们尝试了 Ollama 和本地托管的 LLM。虽然 Ollama 免费且灵活,但它需要强大的硬件支持。相比之下,OpenAI 提供了一个基于云的解决方案,不需要额外的设备,提供可靠的性能,而且价格实惠 💸。让我们深入了解一下,逐块(或者说逐个 token?😉)地进行分解。
1. 获取你的 OpenAI API 密钥 🔑:迈向智能自动化的第一步
要在 n8n 中设置 OpenAI,首先需要在 openai.com 创建一个帐户。 创建账户后,你需要获取你的 OpenAI API 密钥。这个密钥就像是你访问 OpenAI 功能的通行证,务必妥善保管。
实际案例: 假设你正在构建一个客户服务聊天机器人。你需要将客户的查询发送到 OpenAI 的 Chat 模型,然后将回复发送回客户。这个过程需要你的 API 密钥才能完成。
数据支撑: OpenAI 对 API 的使用进行计费,根据 token 的数量(即文本的长度)收费。了解 OpenAI 的定价模型至关重要,可以帮助你控制成本。例如,使用 GPT-3.5 Turbo 模型,每 1,000 个 token 的费用约为 $0.002。这意味着一个包含 500 个 token 的查询和回复的往返费用约为 $0.001。
获取 API 密钥的步骤:
- 访问 openai.com 并注册一个帐户。
- 登录你的帐户。
- 点击 “View API Keys”。
- 点击 “Create new secret key”。
- 给你的密钥起一个名字,然后复制密钥。请务必保存好你的 API 密钥,因为你只能看到一次。
2. n8n 的强大之处:自动化工作流程的核心
n8n 是一个强大的开源工作流程自动化平台,它可以帮助你连接各种应用程序和服务,并自动化重复性任务。 它的可视化的界面使得创建复杂的工作流程变得简单易懂,无需编写大量的代码。
实际案例: 假设你每天需要从各种社交媒体平台收集数据,然后将这些数据汇总到 Google Sheets 中。使用 n8n,你可以创建一个自动化的工作流程,它会自动从社交媒体平台收集数据,并将这些数据格式化后添加到 Google Sheets 中,从而节省大量时间和精力。
数据支撑: n8n 支持数百种不同的应用程序和服务,包括 Slack、Google Sheets、Twitter、GitHub 等等。这意味着你可以将 n8n 集成到你现有的工作流程中,并自动化各种不同的任务。根据 n8n 官方网站的数据,使用 n8n 可以将工作效率提高 50% 以上。
n8n 的核心概念包括:
- 节点 (Nodes): 每个节点代表一个特定的操作,例如从 API 获取数据、转换数据或发送电子邮件。
- 工作流程 (Workflows): 工作流程是由一系列节点组成的,这些节点按照特定的顺序执行,从而完成一个特定的任务。
- 触发器 (Triggers): 触发器用于启动工作流程。例如,你可以设置一个定时触发器,让工作流程每天定时运行。
3. 在 n8n 中集成 OpenAI:配置 OpenAI 节点
现在我们已经获得了 OpenAI API 密钥,接下来我们需要在 n8n 中配置 OpenAI 节点。
实际案例: 假设你想创建一个自动化的内容生成工作流程。你可以使用 n8n 从博客文章中提取关键词,然后将这些关键词发送到 OpenAI 的 Chat 模型,并要求它根据这些关键词生成一段引人入胜的介绍。
数据支撑: OpenAI 提供了各种不同的 Chat 模型,例如 GPT-3.5 Turbo、GPT-4 等。不同的模型具有不同的功能和性能,你需要根据你的需求选择合适的模型。GPT-4 模型通常比 GPT-3.5 Turbo 模型更强大,但价格也更高。
配置 OpenAI 节点的步骤:
- 在 n8n 中创建一个新的工作流程。
- 搜索 “OpenAI” 并将 OpenAI 节点添加到工作流程中。
- 在 OpenAI 节点的设置中,选择 “Chat” 操作。
- 输入你的 OpenAI API 密钥。
- 选择你想要使用的 Chat 模型,例如 “gpt-3.5-turbo”。
- 在 “Messages” 字段中,输入你想要发送到 OpenAI 的消息。 你可以使用表达式来动态生成消息内容。例如,你可以使用
{{ $json["title"] }}
来引用工作流程中前一个节点输出的标题。 - 根据需要配置其他选项,例如 “Temperature” 和 “Max Tokens”。
- Temperature: 控制生成文本的随机性。值越高,文本越随机。
- Max Tokens: 控制生成文本的最大长度。
4. 构建你的第一个 OpenAI Chat 工作流程:实践出真知
现在我们已经配置了 OpenAI 节点,可以开始构建我们的第一个 OpenAI Chat 工作流程了。
实际案例: 让我们创建一个简单的聊天机器人,它可以回复用户的消息。
数据支撑: 为了构建一个成功的聊天机器人,你需要仔细设计你的提示语 (Prompts)。提示语是发送到 OpenAI 的指令,它告诉 OpenAI 你希望它做什么。一个好的提示语应该清晰、简洁、并且包含足够的信息。
工作流程的步骤:
- 添加一个 “Webhook” 节点作为工作流程的触发器。 Webhook 节点可以接收来自外部应用程序的 HTTP 请求。
- 配置 Webhook 节点,使其监听来自用户的消息。
- 添加一个 “Set” 节点,用于设置 OpenAI 节点的输入。
- 在 “Set” 节点中,创建一个名为 “message” 的新字段,并将其值设置为
{{ $json["body"]["message"] }}
。 这将从 Webhook 节点接收到的消息中提取消息内容。
- 在 “Set” 节点中,创建一个名为 “message” 的新字段,并将其值设置为
- 添加一个 OpenAI 节点,并将其配置为使用 “Chat” 操作。
- 在 OpenAI 节点的 “Messages” 字段中,输入以下内容:
json
[
{
"role": "system",
"content": "你是一个友好的聊天机器人,可以回答用户的问题。"
},
{
"role": "user",
"content": "{{ $json["message"] }}"
}
]
这定义了聊天机器人的角色 (system) 和用户的消息 (user)。
- 在 OpenAI 节点的 “Messages” 字段中,输入以下内容:
- 添加一个 “Respond to Webhook” 节点,用于将 OpenAI 的回复发送回用户。
- 在 “Respond to Webhook” 节点中,将 “Body” 字段设置为
{{ $json["choices"][0]["message"]["content"] }}
。 这将从 OpenAI 的回复中提取消息内容。
- 在 “Respond to Webhook” 节点中,将 “Body” 字段设置为
5. 优化你的 OpenAI 工作流程:性能与成本控制
构建 OpenAI 工作流程后,你需要对其进行优化,以提高性能并控制成本。
实际案例: 假设你的 OpenAI 工作流程需要处理大量的文本数据。你可以使用分块技术将文本数据分成较小的块,然后将这些块分别发送到 OpenAI。这可以减少单个请求的延迟,并提高整体性能。
数据支撑: OpenAI 对 API 的使用进行了限制,包括每分钟的请求数量和每个请求的 token 数量。你需要了解这些限制,并根据你的需求进行调整。
优化技巧:
- 选择合适的模型: 不同的 Chat 模型 具有不同的价格和性能。选择最适合你需求的模型可以帮助你控制成本。
- 优化提示语: 一个好的提示语可以帮助 OpenAI 更快地生成高质量的回复。
- 使用缓存: 如果你需要频繁地执行相同的请求,可以使用缓存来存储 OpenAI 的回复。这可以减少 API 的调用次数,并提高性能。
- 限制 token 数量: 限制每个请求的 token 数量可以帮助你控制成本。
- 使用异步请求: 使用异步请求可以避免阻塞 n8n 的主线程,并提高整体性能。
- 监控 API 使用情况: 定期监控你的 API 使用情况可以帮助你及时发现并解决问题。
6. Ollama 与 OpenAI:本地部署与云端服务的权衡
文章提到,之前探讨过 Ollama 和本地托管的 LLM。Ollama 提供了在本地运行大型语言模型 (LLM) 的能力,而 OpenAI 则提供基于云的解决方案。
实际案例: 假设你需要在安全的环境中处理敏感数据。在这种情况下,使用 Ollama 在本地运行 LLM 可能更安全。另一方面,如果你的硬件资源有限,或者你需要快速部署 LLM,那么使用 OpenAI 可能更合适。
数据支撑: Ollama 的性能取决于你的硬件配置。如果你的 CPU 和 GPU 不够强大,那么 LLM 的运行速度可能会很慢。另一方面,OpenAI 的性能是可预测的,因为它运行在云端。
选择 Ollama 还是 OpenAI 取决于你的具体需求。以下是一些需要考虑的因素:
- 数据安全性: 如果你需要处理敏感数据,那么使用 Ollama 在本地运行 LLM 可能更安全。
- 硬件资源: 如果你的硬件资源有限,那么使用 OpenAI 可能更合适。
- 性能: Ollama 的性能取决于你的硬件配置,而 OpenAI 的性能是可预测的。
- 成本: Ollama 是免费的,而 OpenAI 需要付费。
- 易用性: OpenAI 比 Ollama 更容易使用,因为它不需要你配置硬件或软件。
7. 结论:n8n 与 OpenAI 的结合,开启自动化新篇章
通过本文的介绍,我们了解了如何在 n8n 中设置 OpenAI Chat 模型,并构建了一个简单的聊天机器人。n8n 与 OpenAI 的结合,可以帮助我们自动化各种不同的任务,例如内容生成、客户服务、数据分析等等。掌握 n8n 与 OpenAI 的集成技巧,将帮助你更好地利用 AI 技术,提高工作效率,并创造更多的价值。 赶快行动起来,开始探索 n8n 和 OpenAI 的无限可能吧!