大模型技术(LLM)的应用场景日益广泛,如何有效评估其输出质量成为关键。本文将深入探讨 SentrySearch 如何通过 LLM-as-a-Judge 评估体系,结合智能提示(Smart Prompting)迭代评分(Iterative Scoring),显著提升其生成的威胁情报质量,使其从一个基础的生成器演变为一个能够自我改进的威胁情报平台。我们将着重分析 SentrySearch 的实践经验,包括评分引擎的设计、web搜索在消除幻觉中的作用,以及如何利用关键词触发 Claude 的研究模式,最终生成可信且可操作的威胁情报报告。

1. LLM-as-a-Judge:构建威胁情报的质量评估体系

传统的威胁情报生成往往依赖人工分析和整理,效率低且易出错。SentrySearch 创新性地引入 LLM-as-a-Judge 机制,构建了一套全面的评分体系,对生成的威胁情报进行多维度评估。这套体系的核心在于让另一个 LLM (在本例中是 Claude) 充当“法官”的角色,对 SentrySearch 生成的内容进行客观评估。

SentrySearch 的评分引擎从五个关键维度评估每个威胁情报剖面:

  • 完整性 (Completeness, 0-5):是否填充了所有必需的字段?
  • 技术准确性 (Technical Accuracy, 0-5):信息是否正确且详细?
  • 来源质量 (Source Quality, 0-5):声明是否有可信来源支持?
  • 可操作性 (Actionability, 0-5):安全团队是否可以实际使用这些信息?
  • 相关性 (Relevance, 0-5):是否特定于该威胁?

每个部分的总体得分是这些维度的平均值。例如,一个关于新型勒索软件的威胁情报,如果仅仅列出了恶意域名和IP地址,而没有提供检测规则或缓解建议,那么它的“可操作性”得分就会很低,从而影响总分。

这种细粒度的评分体系不仅可以量化威胁情报的质量,还可以为 LLM 提供明确的改进方向。 通过对生成结果的不断迭代和改进,威胁情报的质量得到了显著提升。

2. 迭代评分:驱动威胁情报的自我改进

迭代评分是 SentrySearch 提升威胁情报质量的关键环节。通过不断循环生成、评分和改进的步骤,SentrySearch 能够逐步优化其输出结果。

文章提供了一个具体的例子,展示了“检测与缓解”部分在三次迭代中的演变过程:

  • Iteration 1 – Score: 2.4/5.0 ❌:最初的版本只包含通用的占位符信息,缺乏实际的 IOCs (Indicators of Compromise)。

    {
      "detectionAndMitigation": {
        "iocs": {
          "domains": ["malicious domains"],
          "ips": ["malicious IPs"]
        },
        "behavioralIndicators": ["suspicious behavior"]
      }
    }
    

    反馈是:“通用占位符,没有实际的 IOCs,没有检测规则。”

  • Iteration 2 – Score: 3.0/5.0 ⚠️:第二版加入了具体的域名、IP 地址和文件名等 IOCs,以及行为指标,但仍然缺少检测所需的 YARA/Sigma 规则。

    {
      "detectionAndMitigation": {
        "iocs": {
          "domains": [
            "overseas-recognized-athens-oakland.trycloudflare.com",
            "brandnav-cms-storage.s3.amazonaws.com"
          ],
          "ips": ["5.161.153.112", "43.247.135.53", "15.204.56.106"],
          "filenames": ["helper.jsp", "cache.jsp", "dyceorp.jsp"]
        },
        "behavioralIndicators": [
          "mshta.exe spawning PowerShell processes",
          "Base64 encoded PowerShell execution",
          "POST requests to /developmentserver/metadatauploader"
        ]
      }
    }
    

    反馈是:“不错的 IOCs,但仍然缺少用于检测的 YARA/Sigma 规则。”

  • Iteration 3 – Score: 3.8/5.0 ⚠️:最终版本不仅包含 IOCs 和行为指标,还加入了威胁狩猎查询和 SIEM 规则,使得威胁情报更具可操作性。
    json
    {
    "detectionAndMitigation": {
    "iocs": { /* previous IOCs */ },
    "behavioralIndicators": [ /* previous indicators */ ],
    "threatHuntingQueries": [
    "process == ('bash') && command_includes ('base64, -d')",
    "process == ('curl') && wrote/modified_executable && command_includes ('/tmp')",
    "process == python && command_includes (' -c ' || '.socket')"
    ],
    "siemRules": {
    "splunk": "index=web sourcetype=sap_netweaver uri=\"/developmentserver/metadatauploader\" method=POST | where len(request_body) > 1024",
    "elastic": "event.module:sap AND url.path:\"/developmentserver/metadatauploader\" AND http.request.body.bytes > 1024"
    }
    }
    }

    反馈是:“好多了!考虑添加内存取证模式。”

通过这个例子可以看出,迭代评分机制能够引导 LLM 不断完善和改进威胁情报的内容,使其更具实用价值。 这种持续的反馈循环是提升威胁情报质量的有效途径。

3. Web搜索:消除 LLM 的“幻觉”现象

大模型有时会产生“幻觉”,即自信地提供看似合理但实际上并不存在的 URL 链接或信息。这对于威胁情报来说是致命的,因为虚假信息会严重损害安全团队的信任。 SentrySearch 通过重复使用 Web搜索 工具来消除这种“幻觉”现象。

在早期迭代中,Claude 会自信地引用安全报告并提供看似合法的 URL,但这些 URL 实际上并不存在。为了解决这个问题,SentrySearch 的评分系统会特别验证来源的真实性,通过检查 URL 可访问性以及将声明与实际 Web 内容进行交叉引用,从而捕捉和纠正幻觉。

例如,如果 Claude 声称某个知名安全厂商发布了一份关于特定恶意软件的报告,但提供的 URL 无法访问,或者报告内容与 Claude 的描述不符,评分系统就会降低该部分的得分,并促使 Claude 重新进行 Web搜索,找到更可靠的来源。

这种迭代验证循环确保了最终报告中的每一个引用都指向真实、可访问的来源,从而显著提高了威胁情报的可靠性。

4. 智能提示:激活 Claude 的深度研究模式

智能提示(Smart Prompting) 是一种通过精心设计的关键词来引导 LLM 行为的技术。SentrySearch 通过研究 Claude 4 的系统提示,发现某些关键词可以触发其截然不同的行为模式。 诸如“全面 (comprehensive)”,“分析 (analyze)”,“研究 (research)” 和 “深入 (deep dive)” 之类的词语可以激活 Claude 的多工具研究模式,使其从基本的单次搜索扩展到包含 5-20 次工具调用的彻底调查。

SentrySearch 在其核心提示中战略性地使用了几个触发关键词:

prompt = f"""Generate a comprehensive threat intelligence profile for: {tool_name}...
Please use web search to find the most current information about {tool_name}, including:
- Recent vulnerabilities and exploits
- Technical details and architecture...
Based on your research, create a comprehensive profile in the following JSON format:
"""
  • Comprehensive (使用两次):触发全面的多源研究
  • Research:激活系统的信息收集

这些关键词不仅仅是数量上的堆砌,更重要的是它们触发了 Claude 内置的研究协议。正如 Simon Willison 指出的那样,这些关键词激活了一个“研究类别”,该类别需要“至少 5 次工具调用以确保彻底性”。

通过智能提示,SentrySearch 能够引导 Claude 进行更深入、更全面的研究,从而获取更准确、更全面的威胁情报。

5. 威胁情报质量提升的闭环:智能提示、迭代评分与 Web 搜索的协同作用

SentrySearch 通过 智能提示迭代评分Web 搜索 的协同作用,构建了一个闭环的威胁情报质量提升系统。

  1. 智能提示触发全面的初始研究,引导 LLM 进行深入的信息挖掘。
  2. 迭代评分识别差距和幻觉,为 LLM 提供明确的改进方向。
  3. Web 搜索 消除 LLM 幻觉,验证信息的真实性,确保来源可靠。
  4. LLM 基于评分结果和 Web 搜索结果,对威胁情报进行有针对性的重新研究和改进。

这个循环不断重复,直到威胁情报达到预期的质量标准。

具体来说,如果初始提示包含“全面”和“研究”等关键词,Claude 就会主动进行多轮 Web 搜索,收集关于目标威胁的各种信息,包括漏洞、利用方法、技术细节等。然后,LLM-as-a-Judge 会对 Claude 生成的威胁情报进行评分,如果发现信息不完整、不准确或者来源不可靠,就会给出具体的反馈。Claude 会根据这些反馈,再次进行 Web 搜索,补充缺失的信息,纠正错误的信息,并替换不可靠的来源。

例如,对于一个新型的APT组织,SentrySearch 可能会首先生成一个包含基本信息的威胁情报,例如该组织的名称、攻击目标、使用的工具等。然后,LLM-as-a-Judge 会评分发现该威胁情报缺少该组织的攻击手法、IOCs等关键信息,并且引用的某些安全报告已经过时。Claude 会根据这些反馈,再次进行 Web 搜索,找到最新的安全报告和分析文章,从中提取出该组织的攻击手法和IOCs,并更新威胁情报的内容。经过几轮迭代后,SentrySearch 最终能够生成一个高质量的威胁情报,包含该组织的详细信息,包括攻击目标、攻击手法、IOCs、防御建议等。

6. 总结与展望:LLM-as-a-Judge 在威胁情报领域的潜力

SentrySearch 的实践证明,通过结合 LLM-as-a-Judge智能提示迭代评分,可以显著提升威胁情报的质量,使其更具可信度和可操作性。 这种方法不仅可以提高威胁情报的生成效率,还可以降低人工分析的成本,并减少人为错误。

未来,LLM-as-a-Judge 在威胁情报领域还有巨大的潜力。 随着大模型技术的不断发展,我们可以构建更加智能、更加细致的评分体系,例如引入专家知识库,让 LLM 能够更好地理解威胁情报的专业术语和概念,从而做出更准确的判断。此外,我们还可以将 LLM-as-a-Judge 应用于其他安全领域,例如漏洞挖掘、恶意代码分析、安全事件响应等,从而提升整个安全行业的效率和水平。

总而言之,LLM-as-a-Judge 不仅仅是一种评估方法,更是一种新的威胁情报生成和改进的范式。 通过这种范式,我们可以充分利用大模型技术的优势,构建更加智能、更加可靠的威胁情报体系,从而更好地保护我们的网络安全。而智能提示迭代评分则是确保LLM-as-a-Judge 能够有效提升威胁情报质量的关键技术。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注