随着人工智能领域的飞速发展,我们越来越意识到上下文对于大型语言模型(LLM)的重要性。无论 LLM 的能力多么强大,其效用都取决于它所能访问的信息。本文将深入探讨如何利用 Monkey AuthMCP Server 解决方案,为 LLM 提供实时的上下文信息,从而显著提升 AI 交互的质量和相关性。

上下文:LLM 效能的关键瓶颈

Claude 和 GPT 等 LLM 客户端拥有强大的能力,但前提是它们拥有正确的上下文。一个主要的局限性很快显现出来:如果无法访问用户系统中的特定数据,它们的回答往往缺乏相关性。例如,一位软件工程师想让 AI 助手根据其 GitHub 仓库中的代码给出建议,或者一位财务分析师希望 AI 能够分析企业内部财务数据并提供洞见。如果没有访问这些特定数据的权限,LLM 只能提供泛化的、价值有限的答案。用户需要基于来自工具、文档和模型无法触及的环境的内容的答案。这就引出了一个关键问题:我们如何向 LLM 客户端提供实时的上下文,使其响应真正有用?

Monkey Auth 与 MCP Server:打造上下文感知的桥梁

MCP(Model Context Protocol,模型上下文协议) 是一种新兴的标准,它允许 AI 助手实时访问和解释来自内容存储库、企业工具和开发环境的数据。Monkey Auth 最初是一个个人项目,旨在构建一个用于管理用户帐户并为连接的应用程序和服务颁发访问凭据的身份验证系统。随着项目的发展,引入了 MCP Server 来扩展其功能,通过将 AI 系统连接到相关数据源,使其能够提供有意义的、具有上下文感知的响应。

Monkey Auth – MCP Server 解决方案是一个中间件层,位于客户端应用程序(如 GitHub Copilot、Cursor Chat 和 Claude App 等)和 LLM 之间。虽然 Monkey Auth 这个名字听起来有些随意,但其底层技术提供了一种强大而实用的方法,可以通过实时上下文增强 LLM 的响应。该方案的出现,弥补了传统 LLM 在处理特定用户数据时的不足,极大地扩展了 LLM 的应用场景。

C4(Context):实时上下文信息流

系统的核心是使用服务器发送事件 (SSE)来维护客户端应用程序和 MCP Server 工具之间的实时连接。当用户提出问题时,查询不会直接发送到 LLM。相反,它首先被丰富的相关上下文信息——使 AI 能够生成更准确和有用的响应。想象一下,一位用户在 Cursor Chat 中提问:“找出最近提交的代码中所有潜在的漏洞”。 在没有 MCP Server 的情况下,LLM 可能会给出一些通用的漏洞类型和检测方法。但是,通过 MCP Server,查询可以被用户仓库的代码、历史提交记录、安全扫描结果等上下文信息丰富,从而使 LLM 能够提供更具体的、针对性的建议,例如:“在 commit SHA: xxxxx 中,发现一个潜在的 SQL 注入漏洞,位于文件 A.java 第 23 行”。

架构设计:分离职责,高效传递上下文

该系统在设计时明确区分了职责,以确保跨组件的可伸缩性、可维护性和有效上下文传递。 架构的核心要素包括:

  • AI 助手:用户在其中交互和提交查询的界面,如 GitHub Copilot、Cursor Chat 和 Claude App。这些工具负责接收用户的输入,并将查询转发到 MCP Server。
  • Monkey Auth – MCP Server:基于 ASP.NET Core 的中间件,处理上下文处理并管理客户端和 LLM 之间的通信。这是整个系统的核心,负责从不同的数据源提取相关信息,并将其注入到用户的查询中。
  • LLM(大型语言模型):负责生成响应的 AI 模型,如 GPT-4o 和 Claude 3.7 Sonnet。LLM 接收到包含丰富上下文信息的查询后,便可以根据这些信息生成更准确、更有用的答案。
  • 管理界面:用于管理访问控制、配置和系统监视的 Web 应用程序。管理员可以使用该界面配置哪些数据源可以被 MCP Server 访问,以及哪些用户拥有访问这些数据源的权限。

这种架构的有效性体现在组件之间的无缝通信中。当通过客户端应用程序提交查询时,MCP Server 会从连接的系统中提取相关的上下文数据来丰富它。 只有这样,增强的查询才会发送到 LLM,从而实现更准确和更有用的响应。

例如,假设一位数据科学家想要使用 Claude App 分析存储在 Azure SQL Server 数据库中的客户数据。 在没有 MCP Server 的情况下,Claude 只能提供一些通用的数据分析方法。 但是,通过 MCP Server,查询可以被数据库模式、数据字典、查询历史记录等上下文信息丰富,从而使 Claude 能够提供更精确的、针对性的分析结果,例如:“根据用户年龄和购买历史,预测未来三个月的销售额”。

技术实现:C# 与 ASP.NET Core 的强大组合

对于那些对技术细节感兴趣的人,下面概述了此个人项目的实现。该系统主要使用 C# 和 ASP.NET Core 开发,数据存储通过 Azure SQL Server 数据库进行管理。 系统的核心是 MCP Server Tools 容器,它由几个核心组件组成:

  • 数据连接器:负责连接到各种数据源,例如 GitHub 仓库、Azure SQL Server 数据库、文件系统等。
  • 上下文提取器:负责从连接的数据源中提取相关的上下文信息。
  • 查询增强器:负责将提取的上下文信息注入到用户的查询中。
  • 安全管理器:负责管理用户权限和访问控制。

C4 – 容器 – 用户数据流:实时、上下文丰富的体验

该架构的突出特点是其实时、上下文丰富的数据流:

  1. 用户通过客户端应用程序提交查询。
  2. 查询通过服务器发送事件(SSE)发送到 MCP Server。
  3. MCP Server Tools 检索并附加相关的上下文信息。
  4. 然后将增强的查询转发到 LLM。
  5. LLM 生成响应,现在由添加的上下文告知。
  6. 响应通过相同的管道返回到客户端。

这种流程通过使 LLM 能够实时提供更准确、具有上下文感知的响应来创建无缝的用户体验。 这种实时性至关重要,尤其是在需要快速决策的场景中,例如在安全事件响应中,快速获取相关的威胁情报上下文信息可以帮助安全分析师更快地识别和应对威胁。

访问管理与安全:保护敏感的上下文信息

在处理敏感的上下文信息时,安全性仍然很重要。 通过管理应用程序实施了权限系统,以生成或撤销访问令牌。 这种访问控制机制可以确保只有授权的用户才能访问特定的数据源,并防止未经授权的访问。 例如,一位公司财务部门的员工可以使用 Monkey Auth 连接到企业财务数据库,但只能访问与其角色相关的财务数据,而无法访问其他敏感信息,如员工薪资数据。

如何使用 Monkey Auth 与 MCP Server

  1. 登录/注册到 Monkey Auth 系统。

  2. 从用户个人资料启用 MCP Server。

  3. 复制访问令牌(上面的访问令牌无效)。

  4. 打开 Cursor 并转到 MCP 设置。

  5. 单击“+ 添加新的全局 MCP Server”选项。

  6. 定义以下配置:

    {
      "mcpServers": {
        "MyMCPServer": {
          "url": "https://www.monkeyauth.com/mcp/sse?accessToken=6cb07262-0aae-4b7e-8f39-aa1ca42ac773"
        }
      }
    }
    
  7. 如果配置有效,则 MCP Server 将显示为:

  8. 要访问 Cursor Chat,请转到“查看”>“命令面板…”并选择“Cursor:新建聊天”。

  9. 在聊天窗口中,您可以输入一个查询——例如:获取所有用户。

  10. 聊天界面将自动识别适合您查询的工具,并提示您运行它,如下所示:

  11. 单击“运行工具”以批准并执行查询。 这将检索可用用户的列表。

通过以上步骤,用户可以将 Monkey AuthMCP Server 集成到自己的开发环境中,从而享受到 上下文 感知的 AI 交互体验。

扩展性与未来展望:构建更智能的 AI 应用

Monkey AuthMCP Server 的架构设计充分考虑了扩展性,可以轻松地添加新的数据连接器和 上下文 提取器,以支持更多的数据源和应用场景。 未来,可以进一步探索以下几个方向:

  • 自动化上下文发现: 通过机器学习技术,自动识别用户查询中隐含的 上下文 需求,并自动提取相关的信息。
  • 上下文感知的推理: 使 LLM 能够根据不同的 上下文 信息进行推理和判断,从而提供更智能的响应。
  • 更细粒度的权限控制: 实现更细粒度的权限控制,例如可以控制用户只能访问数据库中特定表或特定列的数据。
  • 支持更多类型的 LLM: 扩展 MCP Server,使其能够支持更多类型的 LLM,例如开源的 LLM 模型。

通过持续的改进和创新,Monkey AuthMCP Server 有望成为构建更智能、更高效的 AI 应用的重要基础设施,为用户提供更加个性化、更加贴合实际需求的 AI 交互体验。

总结:拥抱上下文,释放 LLM 的真正潜力

Monkey AuthMCP Server 提供了一种有效的解决方案,用于解决 LLM 在处理特定用户数据时面临的上下文缺失问题。 通过实时地将相关上下文信息注入到用户查询中,该方案可以显著提升 LLM 的响应质量和相关性。 随着人工智能技术的不断发展,我们相信 上下文 感知将成为 AI 应用的核心竞争力。 拥抱上下文,才能真正释放 LLM 的潜力,构建更智能、更高效的 AI 应用。 让我们一起利用 Monkey AuthMCP Server,打造一个更加智能的未来。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注