- 有限的上下文——它们无法一次性处理整个语料库。
- 静态知识——其训练数据在某个时间点后便不再更新。
构建知识库
知识库是用于检索的文档或结构化数据的存储库。 如果您需要自定义知识库,可以使用LangChain的文档加载器和向量存储从您自己的数据构建一个。如果您已经拥有知识库(例如SQL数据库、CRM或内部文档系统),则无需重新构建。您可以:
- 将其作为工具连接到智能体RAG中的智能体。
- 查询它并将检索到的内容作为上下文提供给LLM (2步RAG)。
教程:语义搜索
了解如何使用LangChain的文档加载器、嵌入和向量存储从您自己的数据创建可搜索的知识库。
在本教程中,您将构建一个PDF搜索引擎,实现检索与查询相关的段落。您还将在此引擎之上实现一个最小RAG工作流,以了解如何将外部知识集成到LLM推理中。
从检索到RAG
检索允许LLM在运行时访问相关上下文。但大多数实际应用更进一步:它们将检索与生成集成,以产生基于事实、上下文感知的答案。 这是**检索增强生成(RAG)**背后的核心思想。检索管道成为更广泛系统的基础,该系统将搜索与生成相结合。检索管道
典型的检索工作流如下所示: 每个组件都是模块化的:您可以更换加载器、拆分器、嵌入或向量存储,而无需重写应用程序的逻辑。构建块
文档加载器
从外部来源(Google Drive、Slack、Notion等)摄取数据,返回标准化的
Document 对象。嵌入模型
嵌入模型将文本转换为数字向量,使得含义相似的文本在该向量空间中彼此靠近。
向量存储
用于存储和搜索嵌入的专用数据库。
检索器
检索器是一个接口,给定非结构化查询时返回文档。
RAG架构
RAG可以通过多种方式实现,具体取决于您的系统需求。我们在以下部分概述每种类型。| 架构 | 描述 | 控制 | 灵活性 | 延迟 | 示例用例 |
|---|---|---|---|---|---|
| 2步RAG | 检索总是在生成之前发生。简单且可预测 | ✅ 高 | ❌ 低 | ⚡ 快 | 常见问题解答、文档机器人 |
| 智能体RAG | 由LLM驱动的智能体在推理过程中决定何时以及如何检索 | ❌ 低 | ✅ 高 | ⏳ 可变 | 具有访问多种工具的研究助手 |
| 混合 | 结合两种方法的特点,并包含验证步骤 | ⚖️ 中等 | ⚖️ 中等 | ⏳ 可变 | 具有质量验证的领域特定问答 |
延迟:在2步RAG中,延迟通常更可预测,因为LLM调用的最大数量是已知且有限的。这种可预测性假设LLM推理时间是主导因素。然而,实际延迟也可能受到检索步骤性能的影响——例如API响应时间、网络延迟或数据库查询——这些可能因使用的工具和基础设施而异。
2步RAG
在2步RAG中,检索步骤总是在生成步骤之前执行。这种架构简单且可预测,适用于许多检索相关文档是生成答案的明确前提的应用。教程:检索增强生成(RAG)
了解如何使用检索增强生成构建一个基于您数据回答问题的问答聊天机器人。
本教程介绍两种方法:
- RAG智能体,使用灵活的工具运行搜索——非常适合通用用途。
- 2步RAG链,每个查询只需一次LLM调用——对于简单任务快速高效。
智能体RAG
智能体检索增强生成(RAG)结合了检索增强生成和基于智能体的推理的优势。智能体(由LLM驱动)不是在回答前检索文档,而是在交互过程中逐步推理并决定何时以及如何检索信息。教程:检索增强生成(RAG)
了解如何使用检索增强生成构建一个基于您数据回答问题的问答聊天机器人。
本教程介绍两种方法:
- RAG智能体,使用灵活的工具运行搜索——非常适合通用用途。
- 2步RAG链,每个查询只需一次LLM调用——对于简单任务快速高效。
混合RAG
混合RAG结合了2步RAG和智能体RAG的特点。它引入了中间步骤,例如查询预处理、检索验证和生成后检查。这些系统比固定管道提供更大的灵活性,同时保持对执行的一定控制。 典型组件包括:- 查询增强:修改输入问题以提高检索质量。这可能涉及重写不明确的查询、生成多个变体或使用额外上下文扩展查询。
- 检索验证:评估检索到的文档是否相关且充分。如果不是,系统可能会优化查询并重新检索。
- 答案验证:检查生成的答案的准确性、完整性和与源内容的一致性。如果需要,系统可以重新生成或修改答案。
- 具有模糊或未明确指定查询的应用程序
- 需要验证或质量控制步骤的系统
- 涉及多个来源或迭代优化的工作流
教程:带自校正的智能体RAG
混合RAG的示例,结合了智能体推理、检索和自校正。
通过MCP将这些文档连接到Claude、VSCode等以获取实时答案。

