Language:Chinese VersionEnglish Version

检索增强生成(Retrieval-Augmented Generation)承诺将大型语言模型基于外部知识进行训练,消除幻觉。但在生产环境中的现实情况则更为严峻。简单的RAG——嵌入你的文档,检索前k个片段,传递给LLM——对于简单的事实查询效果尚可。但对于需要跨多个文档进行推理、时间比较或多步推理的任何任务,它都会系统性失败。智能体RAG(Agentic RAG)通过将检索视为推理过程而非查找操作,弥合了这一差距。

简单RAG的局限性

简单RAG的根本问题在于,单次检索步骤无法处理那些需要综合多个不相关来源信息的查询。”我们第一季度和第三季度的财务业绩有何变化,是什么导致了这种变化?”这类问题需要检索Q1数据、检索Q3数据、计算差异,然后推理因果因素——这是四个不同的操作,单次前k检索无法满足。

检索质量是另一个关键的失败模式。嵌入相似性只是相关性的代理,而非保证。使用不同术语表达同一概念的文档经常无法被检索到。使用嵌入模型未见过的术语的查询表现不佳。将表格、代码块或论点分割到不同片段中的分块决策会破坏嵌入所依赖的语义连贯性。

智能体方法

智能体RAG将每个查询视为一个微型研究任务。系统执行动态计划而非单次检索调用:将查询分解为子问题,独立检索每个子问题的证据,综合中间发现,识别信息缺口,检索额外证据填补这些缺口,最后基于累积的证据生成响应。

规划步骤是智能所在。规划LLM(通常是更小、更快的模型)分析传入的查询并生成检索计划——一系列有针对性的搜索,旨在收集回答问题所需的所有信息。每次搜索可以使用不同策略:语义相似性、关键词搜索、元数据过滤、日期范围,甚至对知识库中不存在的最新信息进行网络搜索。

多跳检索

多跳检索是将智能体RAG与简单RAG区分开来的关键能力。在多跳设置中,每个检索到的文档都可以生成额外的检索查询。如果文档A提到了需要文档B澄清的概念,智能体会自动检索B,然后再生成最终答案。这模仿了人类研究人员的实际工作方式——遵循引用链、交叉参考来源,并逐步加深对主题的理解。

实现需要一个包含终止条件的检索循环。代理执行检索,评估当前证据是否足以回答查询,然后生成响应或发出额外的检索调用。最大跳数(通常为3-5)可防止无限循环,同时为复杂查询提供足够的深度。

自我验证与置信度评分

生产级代理RAG系统在响应生成后包含验证步骤。验证器(另一个LLM调用,或使用验证提示的同一模型)检查响应是否完全基于检索到的证据,声明是否在来源间保持一致,以及响应是否直接解决了原始查询。未通过验证的响应会触发额外的检索、响应重新生成或升级至人工审核。

置信度评分量化了响应的可靠性。基于多个一致来源的证据获得的响应会得到高置信度评分。依赖单一来源或包含未检索到证据直接支持的声明的响应会获得低评分。此元数据使下游系统能够适当处理低置信度响应——向用户显示不确定性、标记为人工审核或触发替代响应策略。

实践中的代理RAG构建

该架构需要四个组件:查询分析器/规划器、检索执行器(封装您的向量数据库、关键词搜索和任何外部数据源)、证据合成器和响应验证器。每个组件都可以是独立的LLM调用,或是针对特定任务微调的专业化小型模型。

延迟是主要的权衡因素。简单RAG会将查询时间增加200-500毫秒。具有多跳检索的代理RAG可能增加2-8秒。对于响应质量决定业务成果的用例——法律研究、医疗信息、金融分析——这种延迟成本是可以接受的。对于实时对话应用,您可能需要实现流式中间结果,以在代理完成检索计划时保持感知响应性。

LangGraph、LlamaIndex Workflows和CrewAI等框架提供了构建代理RAG管道的可组合基础组件,无需从头实现编排逻辑。在投入完整的多跳架构之前,先在实际查询上实现一个简单的2跳版本——从运行实际工作负载中学到的会比任何合成基准测试都多。

Aiko Tanaka
Aiko Tanaka📍 Tokyo, Japan

AI & Robotics Reporter bridging Japan's precision-engineering tradition with emerging AI agent ecosystems. Covers SoftBank, Sony AI, and Toyota Research Institute for NovVista's Asia bureau.

More by Aiko Tanaka →

By Aiko Tanaka

AI & Robotics Reporter bridging Japan's precision-engineering tradition with emerging AI agent ecosystems. Covers SoftBank, Sony AI, and Toyota Research Institute for NovVista's Asia bureau.

31 thoughts on “智能体RAG:从简单检索迈向推理增强生成”
  1. N|这篇文章讲得真是太棒了,RAG的推理增强生成功能,对于我这种做NLP的项目来说,是个福音啊!

  2. N|我之前也接触过类似的检索技术,感觉RAG在这方面又前进了一步,期待能应用到我们的产品中去。

  3. N|高级开发者来啦,RAG的推理能力确实强大,但能否解决实时性方面的问题呢?

  4. N|初级工程师的我,看着RAG的架构图就有点晕,能详细解释一下RAG的工作原理吗?

  5. N|感觉RAG在处理复杂问题的时候,生成效果要比简单的检索好得多,值得深入研究。

  6. N|作为产品经理,我很关注RAG的成本和部署问题,不知道在实际应用中会遇到哪些挑战?

  7. N|RAG听起来很强大,但我们公司现在主要做的是云计算,这种技术离我们还有多远呢?

  8. N|我之前在公司用RAG优化了一个项目,效果确实不错,但稳定性还是需要提升。

  9. N|我们公司正在转型,RAG的推理增强生成能力,可能成为我们的核心竞争力。

  10. N|不同意见来了,虽然RAG听起来不错,但我感觉它在实际应用中还有很多问题要解决。

Leave a Reply

Your email address will not be published. Required fields are marked *

You missed