想构建强大的 自动化AI 工作流,却不想依赖云平台或将数据暴露给第三方服务器?现在,你可以通过简单的几个 Docker 命令,免费在本地机器上 自托管 n8n,利用 n8n Self-Hosted AI Starter Kit 开启你的 AI 自动化之旅。无论你使用的是 AMD 还是 NVIDIA 硬件,本文都将为你提供详细的指南。让数据安全掌握在自己手中,享受完全私有的 AI 工作流 体验。

准备工作:Docker、Git 与硬件要求

开始之前,你需要确保满足以下条件:

  • Docker + Docker Desktop:这是运行 n8n 的基础环境,确保正确安装并配置。Docker 简化了应用的部署,可以将 n8n 及其依赖项打包在一个容器中,实现跨平台运行。
  • Git:用于克隆 n8n Self-Hosted AI Starter Kit 的 GitHub 仓库。
  • 硬件要求:至少 8GB 内存的机器。运行复杂的 AI 工作流 需要足够的内存来支撑。
  • 几分钟时间:整个过程非常简单快捷,只需几个命令即可完成。

克隆 Starter Kit:一切从 GitHub 开始

第一步,克隆官方 GitHub 仓库:

git clone https://github.com/n8n-io/self-hosted-ai-starter-kit
cd self-hosted-ai-starter-kit

这个仓库包含了所有你需要的东西:预配置的 工作流、环境变量和 Docker Compose 文件。例如,仓库中可能包含一个预配置的 工作流,用于自动化从社交媒体平台收集数据,并使用 AI 模型进行情感分析。这意味着你无需从零开始,可以直接基于现有模板进行定制和扩展。

选择正确的 Docker 命令:适配你的硬件

根据你的系统,运行以下三个命令之一:

  • AMD 系统(或通用设置)

    docker compose -f docker-compose.amd.yml up
    

    这个命令适用于大多数情况,即使你没有 NVIDIA GPU,也可以使用它来运行 n8n。

  • NVIDIA GPU(支持 CUDA)

    docker compose -f docker-compose.nvidia.yml up
    

    如果你有 NVIDIA GPU,并且安装了 CUDA 驱动,这个命令可以利用 GPU 的强大计算能力,加速 AI 工作流 的执行。例如,在使用 Stable Diffusion 等 AI 模型进行图像生成时,GPU 可以显著缩短生成时间。

  • Apple Silicon(M1/M2)

    docker compose -f docker-compose.mps.yml up
    

    对于 Apple Silicon 芯片的 Mac 用户,这个命令针对 Apple 的 Metal Performance Shaders (MPS) 进行了优化,可以充分利用 Apple Silicon 芯片的性能。

    💡 使用 -d 在命令结尾,可以在后台运行,例如:docker compose -f docker-compose.amd.yml up -d

    使用后台运行可以让你的终端保持可用状态,无需一直等待 n8n 启动。

访问 n8n:开启你的 AI 自动化之旅

一旦 Docker 运行起来,打开你的浏览器,访问:

http://localhost:5678

你将看到 n8n 的用户界面,在这里你可以开始构建、编辑和运行你自己的 AI 驱动的工作流

例如,你可以创建一个 工作流,自动从 Twitter 抓取包含特定关键词的推文,然后使用 GPT 模型进行情感分析,并将分析结果保存到 Google Sheets 中。这个 工作流 可以帮助你实时监控舆情,并做出相应的决策。

n8n 的强大之处:自动化、AI 与集成

n8n 的强大之处在于其灵活性和可扩展性。它允许你创建复杂的 自动化 工作流,集成各种不同的服务和应用程序。

  • 自动化聊天回复:使用 GPT 端点,你可以自动化聊天机器人的回复,提高客户服务效率。例如,你可以创建一个 工作流,当用户在 Slack 上提出问题时,自动调用 GPT 模型生成答案,并回复给用户。
  • 构建数据管道:从表单、API 或 CRM 构建数据管道,将数据从不同的来源汇集到一起,进行分析和处理。例如,你可以创建一个 工作流,从 HubSpot CRM 中提取客户数据,然后将其导入到 Google Analytics 中,进行用户行为分析。
  • 运行本地 AI 代理:在完全私有的环境下运行本地 AI 代理,保护你的数据安全。例如,你可以创建一个 工作流,使用本地部署的 AI 模型进行图像识别,并对识别结果进行处理。
  • 连接各种服务:连接 Google Sheets、Slack、Telegram 等服务,实现跨平台的 自动化。例如,你可以创建一个 工作流,当 Google Sheets 中的数据发生变化时,自动在 Slack 上发送通知。

实际案例:利用 n8n 实现 AI 驱动的自动化

以下是一些使用 n8n 实现 AI 驱动的 自动化 的实际案例:

  • 自动化内容创作:创建一个 工作流,从多个新闻源抓取数据,然后使用 GPT 模型生成文章摘要,并自动发布到你的博客或社交媒体上。
  • 智能客服机器人:创建一个 工作流,当用户在网站上提出问题时,自动调用 GPT 模型生成答案,并回复给用户。如果 GPT 模型无法回答,则将问题转交给人工客服。
  • 恶意软件检测:创建一个 工作流,定期扫描你的服务器或网络,检测恶意软件。可以使用 ClamAV 等开源杀毒软件,也可以使用 VirusTotal 等在线服务。
  • 价格监控与预警:创建一个 工作流,定期抓取竞争对手网站上的产品价格,当价格低于一定阈值时,自动发送邮件通知你。
  • 智能家居控制:创建一个 工作流,根据天气预报自动调整你的智能家居设备。例如,当天气炎热时,自动打开空调,当天气寒冷时,自动打开暖气。

数据隐私与安全:自托管的优势

自托管 n8n 的一个重要优势是数据隐私和安全。由于你的数据存储在本地机器上,而不是云服务器上,你可以完全控制数据的访问权限和安全策略。这对于处理敏感数据或需要满足特定合规要求的组织来说至关重要。

例如,医疗保健机构可以使用 自托管 n8n 来自动化患者数据的处理,同时确保符合 HIPAA 法规。金融机构可以使用 自托管 n8n 来自动化交易监控,同时确保符合 PCI DSS 标准。

n8n 与大模型:AI 工作流的未来

大模型 的发展为 自动化 带来了新的可能性。n8n 可以与各种 大模型 集成,从而实现更加智能和复杂的 工作流

例如,你可以使用 n8n 与 OpenAI 的 GPT 模型集成,构建一个智能写作助手,帮助你快速生成高质量的文章。你可以使用 n8n 与 Google 的 Vertex AI 集成,构建一个图像识别系统,自动识别图像中的物体和场景。

随着 大模型 的不断发展,n8n 的应用前景将更加广阔。AI 工作流 将会变得更加智能、高效和易用,从而改变我们的工作和生活方式。

官方 GitHub 仓库:获取更多资源

想要了解更多关于 n8n Self-Hosted AI Starter Kit 的信息,请访问官方 GitHub 仓库:

n8n-io/self-hosted-ai-starter-kit

在这里你可以找到最新的代码、文档和示例 工作流。你也可以参与社区讨论,与其他 n8n 用户交流经验和想法。

结论:开启你的自动化世界

Docker 已经运行起来了吗?你已经正式准备好按照自己的方式 自动化 你的世界了。 自托管 n8n 为你提供了强大的工具和灵活的平台,让你能够轻松构建和部署 AI 驱动的工作流。无论你是个人开发者、小型企业还是大型组织,n8n 都能帮助你提高效率、降低成本,并释放 AI 的全部潜力。 拥抱 自动化,开启你的智能未来!