Skip to main content
LangChain 和 Deep Agents 为常见用例提供预构建中间件。每种中间件都已为生产环境准备就绪,并可根据您的具体需求进行配置。

与提供商无关的中间件

以下中间件适用于任何 LLM 提供商:
中间件描述
摘要在接近令牌限制时自动总结对话历史。
人在环暂停执行以供人工批准工具调用。
模型调用限制限制模型调用次数以防止成本过高。
工具调用限制通过限制调用次数来控制工具执行。
模型回退当主模型失败时自动回退到替代模型。
PII 检测检测和处理个人身份信息 (PII)。
待办事项列表为代理配备任务规划和跟踪能力。
LLM 工具选择器在调用主模型之前使用 LLM 选择相关工具。
工具重试使用指数退避自动重试失败的工具调用。
模型重试使用指数退避自动重试失败的模型调用。
LLM 工具模拟器使用 LLM 模拟工具执行以用于测试目的。
上下文编辑通过修剪或清除工具使用来管理对话上下文。
Shell 工具向代理公开持久 shell 会话以执行命令。
文件搜索提供基于文件系统的 Glob 和 Grep 搜索工具。
文件系统为代理提供用于存储上下文和长期记忆的文件系统。
子代理添加生成子代理的能力。

摘要

在接近令牌限制时自动总结对话历史,保留最近的消息同时压缩较旧的上下文。摘要功能适用于以下情况:
  • 超过上下文窗口的长时间运行的对话。
  • 具有广泛历史的多轮对话。
  • 保留完整对话上下文很重要的应用程序。
API 参考: SummarizationMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import SummarizationMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[your_weather_tool, your_calculator_tool],
    middleware=[
        SummarizationMiddleware(
            model="gpt-4.1-mini",
            trigger=("tokens", 4000),
            keep=("messages", 20),
        ),
    ],
)
triggerkeepfraction 条件(如下所示)依赖于聊天模型的配置文件数据(如果使用 langchain>=1.1)。如果数据不可用,请使用其他条件或手动指定:
from langchain.chat_models import init_chat_model

custom_profile = {
    "max_input_tokens": 100_000,
    # ...
}
model = init_chat_model("gpt-4.1", profile=custom_profile)
model
string | BaseChatModel
required
用于生成摘要的模型。可以是模型标识符字符串(例如,'openai:gpt-4.1-mini')或 BaseChatModel 实例。有关更多信息,请参见 init_chat_model
trigger
ContextSize | list[ContextSize] | None
触发摘要的条件。可以是:
  • 单个 ContextSize 元组(必须满足指定条件)
  • ContextSize 元组列表(必须满足任何条件 - OR 逻辑)
条件应为以下之一:
  • fraction(浮点数):模型上下文大小的分数(0-1)
  • tokens(整数):绝对令牌计数
  • messages(整数):消息计数
必须至少指定一个条件。如果未提供,摘要将不会自动触发。有关更多信息,请参见 API 参考中的 ContextSize
keep
ContextSize
default:"('messages', 20)"
摘要后要保留多少上下文。精确指定以下一项:
  • fraction(浮点数):要保留的模型上下文大小的分数(0-1)
  • tokens(整数):要保留的绝对令牌计数
  • messages(整数):要保留的最近消息数
有关更多信息,请参见 API 参考中的 ContextSize
token_counter
function
自定义令牌计数函数。默认为基于字符的计数。
summary_prompt
string
用于摘要的自定义提示模板。如果未指定,则使用内置模板。模板应包含 {messages} 占位符,对话历史将插入其中。
trim_tokens_to_summarize
number
default:"4000"
生成摘要时要包含的最大令牌数。消息将在摘要之前被修剪以适应此限制。
summary_prefix
string
deprecated
已弃用: 请使用 summary_prompt 提供完整提示。
max_tokens_before_summary
number
deprecated
已弃用: 请改用 trigger: ("tokens", value)。触发摘要的令牌阈值。
messages_to_keep
number
deprecated
已弃用: 请改用 keep: ("messages", value)。要保留的最近消息。
摘要中间件监控消息令牌计数,并在达到阈值时自动总结较旧的消息。触发条件控制摘要何时运行:
  • 单个条件对象(必须满足指定条件)
  • 条件数组(必须满足任何条件 - OR 逻辑)
  • 每个条件可以使用 fraction(模型上下文大小的分数)、tokens(绝对计数)或 messages(消息计数)
保留条件控制要保留多少上下文(精确指定一项):
  • fraction - 要保留的模型上下文大小的分数
  • tokens - 要保留的绝对令牌计数
  • messages - 要保留的最近消息数
from langchain.agents import create_agent
from langchain.agents.middleware import SummarizationMiddleware


# 单个条件:当令牌数 >= 4000 时触发
agent = create_agent(
    model="gpt-4.1",
    tools=[your_weather_tool, your_calculator_tool],
    middleware=[
        SummarizationMiddleware(
            model="gpt-4.1-mini",
            trigger=("tokens", 4000),
            keep=("messages", 20),
        ),
    ],
)

# 多个条件:当令牌数 >= 3000 或消息数 >= 6 时触发
agent2 = create_agent(
    model="gpt-4.1",
    tools=[your_weather_tool, your_calculator_tool],
    middleware=[
        SummarizationMiddleware(
            model="gpt-4.1-mini",
            trigger=[
                ("tokens", 3000),
                ("messages", 6),
            ],
            keep=("messages", 20),
        ),
    ],
)

# 使用分数限制
agent3 = create_agent(
    model="gpt-4.1",
    tools=[your_weather_tool, your_calculator_tool],
    middleware=[
        SummarizationMiddleware(
            model="gpt-4.1-mini",
            trigger=("fraction", 0.8),
            keep=("fraction", 0.3),
        ),
    ],
)

人在环

暂停代理执行,以供人工批准、编辑或拒绝工具调用,然后再执行。人在环 适用于以下情况:
  • 需要人工批准的高风险操作(例如数据库写入、金融交易)。
  • 需要人工监督的合规工作流。
  • 需要人工反馈指导代理的长时间运行对话。
API 参考: HumanInTheLoopMiddleware
人在环中间件需要一个检查点来在中断期间维护状态。
from langchain.agents import create_agent
from langchain.agents.middleware import HumanInTheLoopMiddleware
from langgraph.checkpoint.memory import InMemorySaver


def your_read_email_tool(email_id: str) -> str:
    """模拟通过 ID 读取电子邮件的函数。"""
    return f"Email content for ID: {email_id}"

def your_send_email_tool(recipient: str, subject: str, body: str) -> str:
    """模拟发送电子邮件的函数。"""
    return f"Email sent to {recipient} with subject '{subject}'"

agent = create_agent(
    model="gpt-4.1",
    tools=[your_read_email_tool, your_send_email_tool],
    checkpointer=InMemorySaver(),
    middleware=[
        HumanInTheLoopMiddleware(
            interrupt_on={
                "your_send_email_tool": {
                    "allowed_decisions": ["approve", "edit", "reject"],
                },
                "your_read_email_tool": False,
            }
        ),
    ],
)
有关完整示例、配置选项和集成模式,请参见人在环文档
观看此视频指南,演示人在环中间件的行为。

模型调用限制

限制模型调用次数,以防止无限循环或成本过高。模型调用限制适用于以下情况:
  • 防止失控代理进行过多 API 调用。
  • 在生产部署中强制执行成本控制。
  • 在特定调用预算内测试代理行为。
API 参考: ModelCallLimitMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import ModelCallLimitMiddleware
from langgraph.checkpoint.memory import InMemorySaver

agent = create_agent(
    model="gpt-4.1",
    checkpointer=InMemorySaver(),  # 线程限制所需
    tools=[],
    middleware=[
        ModelCallLimitMiddleware(
            thread_limit=10,
            run_limit=5,
            exit_behavior="end",
        ),
    ],
)
观看此视频指南,演示模型调用限制中间件的行为。
thread_limit
number
线程中所有运行的最大模型调用次数。默认为无限制。
run_limit
number
单次调用的最大模型调用次数。默认为无限制。
exit_behavior
string
default:"end"
达到限制时的行为。选项:'end'(优雅终止)或 'error'(引发异常)

工具调用限制

通过限制工具调用次数来控制代理执行,可以全局限制所有工具,也可以针对特定工具。工具调用限制适用于以下情况:
  • 防止对昂贵的外部 API 进行过多调用。
  • 限制网络搜索或数据库查询。
  • 对特定工具使用强制执行速率限制。
  • 防止失控的代理循环。
API 参考: ToolCallLimitMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import ToolCallLimitMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, database_tool],
    middleware=[
        # 全局限制
        ToolCallLimitMiddleware(thread_limit=20, run_limit=10),
        # 工具特定限制
        ToolCallLimitMiddleware(
            tool_name="search",
            thread_limit=5,
            run_limit=3,
        ),
    ],
)
观看此视频指南,演示工具调用限制中间件的行为。
tool_name
string
要限制的特定工具的名称。如果未提供,则限制适用于所有全局工具
thread_limit
number
线程(对话)中所有运行的最大工具调用次数。使用相同线程 ID 的多次调用之间会持久化。需要检查点来维护状态。None 表示无线程限制。
run_limit
number
单次调用(一个用户消息 → 响应周期)的最大工具调用次数。每个新用户消息都会重置。None 表示无运行限制。注意: 必须至少指定 thread_limitrun_limit 中的一个。
exit_behavior
string
default:"continue"
达到限制时的行为:
  • 'continue'(默认) - 用错误消息阻止超出限制的工具调用,让其他工具和模型继续。模型根据错误消息决定何时结束。
  • 'error' - 引发 ToolCallLimitExceededError 异常,立即停止执行
  • 'end' - 立即停止执行,并为超出限制的工具调用提供 ToolMessage 和 AI 消息。仅在限制单个工具时有效;如果其他工具有待处理调用,则引发 NotImplementedError
使用以下方式指定限制:
  • 线程限制 - 对话中所有运行的最大调用次数(需要检查点)
  • 运行限制 - 单次调用的最大调用次数(每轮重置)
退出行为:
  • 'continue'(默认) - 用错误消息阻止超出限制的调用,代理继续
  • 'error' - 立即引发异常
  • 'end' - 使用 ToolMessage + AI 消息停止(仅限单工具场景)
from langchain.agents import create_agent
from langchain.agents.middleware import ToolCallLimitMiddleware


global_limiter = ToolCallLimitMiddleware(thread_limit=20, run_limit=10)
search_limiter = ToolCallLimitMiddleware(tool_name="search", thread_limit=5, run_limit=3)
database_limiter = ToolCallLimitMiddleware(tool_name="query_database", thread_limit=10)
strict_limiter = ToolCallLimitMiddleware(tool_name="scrape_webpage", run_limit=2, exit_behavior="error")

agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, database_tool, scraper_tool],
    middleware=[global_limiter, search_limiter, database_limiter, strict_limiter],
)

模型回退

当主模型失败时自动回退到替代模型。模型回退适用于以下情况:
  • 构建能够处理模型中断的弹性代理。
  • 通过回退到更便宜的模型来优化成本。
  • 在 OpenAI、Anthropic 等提供商之间实现冗余。
API 参考: ModelFallbackMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import ModelFallbackMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        ModelFallbackMiddleware(
            "gpt-4.1-mini",
            "claude-3-5-sonnet-20241022",
        ),
    ],
)
观看此视频指南,演示模型回退中间件的行为。
first_model
string | BaseChatModel
required
主模型失败时要尝试的第一个回退模型。可以是模型标识符字符串(例如,'openai:gpt-4.1-mini')或 BaseChatModel 实例。
*additional_models
string | BaseChatModel
如果之前的模型失败,按顺序尝试的其他回退模型

PII 检测

使用可配置的策略检测和处理对话中的个人身份信息 (PII)。PII 检测适用于以下情况:
  • 具有合规要求的医疗保健和金融应用程序。
  • 需要清理日志的客户服务代理。
  • 处理敏感用户数据的任何应用程序。
API 参考: PIIMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import PIIMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        PIIMiddleware("email", strategy="redact", apply_to_input=True),
        PIIMiddleware("credit_card", strategy="mask", apply_to_input=True),
    ],
)

自定义 PII 类型

您可以通过提供 detector 参数创建自定义 PII 类型。这允许您检测特定于您用例的模式,超越内置类型。 创建自定义检测器的三种方法:
  1. 正则表达式模式字符串 - 简单模式匹配
  2. 自定义函数 - 具有验证的复杂检测逻辑
from langchain.agents import create_agent
from langchain.agents.middleware import PIIMiddleware
import re


# 方法 1:正则表达式模式字符串
agent1 = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        PIIMiddleware(
            "api_key",
            detector=r"sk-[a-zA-Z0-9]{32}",
            strategy="block",
        ),
    ],
)

# 方法 2:编译的正则表达式模式
agent2 = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        PIIMiddleware(
            "phone_number",
            detector=re.compile(r"\+?\d{1,3}[\s.-]?\d{3,4}[\s.-]?\d{4}"),
            strategy="mask",
        ),
    ],
)

# 方法 3:自定义检测器函数
def detect_ssn(content: str) -> list[dict[str, str | int]]:
    """检测 SSN 并进行验证。

    返回一个包含 'text'、'start' 和 'end' 键的字典列表。
    """
    import re
    matches = []
    pattern = r"\d{3}-\d{2}-\d{4}"
    for match in re.finditer(pattern, content):
        ssn = match.group(0)
        # 验证:前三位数字不能是 000、666 或 900-999
        first_three = int(ssn[:3])
        if first_three not in [0, 666] and not (900 <= first_three <= 999):
            matches.append({
                "text": ssn,
                "start": match.start(),
                "end": match.end(),
            })
    return matches

agent3 = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        PIIMiddleware(
            "ssn",
            detector=detect_ssn,
            strategy="hash",
        ),
    ],
)
自定义检测器函数签名: 检测器函数必须接受一个字符串(内容)并返回匹配项: 返回一个包含 textstartend 键的字典列表:
def detector(content: str) -> list[dict[str, str | int]]:
    return [
        {"text": "matched_text", "start": 0, "end": 12},
        # ... 更多匹配项
    ]
对于自定义检测器:
  • 对于简单模式使用正则表达式字符串
  • 当需要标志(例如,不区分大小写匹配)时使用 RegExp 对象
  • 当需要超出模式匹配的验证逻辑时使用自定义函数
  • 自定义函数让您完全控制检测逻辑,并可以实现复杂的验证规则
pii_type
string
required
要检测的 PII 类型。可以是内置类型(emailcredit_cardipmac_addressurl)或自定义类型名称。
strategy
string
default:"redact"
如何处理检测到的 PII。选项:
  • 'block' - 检测到时引发异常
  • 'redact' - 替换为 [REDACTED_{PII_TYPE}]
  • 'mask' - 部分掩码(例如,****-****-****-1234
  • 'hash' - 替换为确定性哈希
detector
function | regex
自定义检测器函数或正则表达式模式。如果未提供,则使用 PII 类型的内置检测器。
apply_to_input
boolean
default:"True"
在模型调用前检查用户消息
apply_to_output
boolean
default:"False"
在模型调用后检查 AI 消息
apply_to_tool_results
boolean
default:"False"
在执行后检查工具结果消息

待办事项列表

为代理配备任务规划和跟踪能力,以处理复杂的多步骤任务。待办事项列表适用于以下情况:
  • 需要跨多个工具协调的复杂多步骤任务。
  • 需要进度可见性的长时间运行操作。
此中间件自动为代理提供 write_todos 工具和系统提示,以指导有效的任务规划。
API 参考: TodoListMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import TodoListMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[read_file, write_file, run_tests],
    middleware=[TodoListMiddleware()],
)
观看此视频指南,演示待办事项列表中间件的行为。
system_prompt
string
用于指导待办事项使用的自定义系统提示。如果未指定,则使用内置提示。
tool_description
string
write_todos 工具的自定义描述。如果未指定,则使用内置描述。

LLM 工具选择器

在调用主模型之前使用 LLM 智能选择相关工具。LLM 工具选择器适用于以下情况:
  • 具有许多工具(10+)的代理,其中大多数工具在每次查询中不相关。
  • 通过过滤不相关工具来减少令牌使用。
  • 提高模型的专注度和准确性。
此中间件使用结构化输出来询问 LLM 哪些工具与当前查询最相关。结构化输出模式定义了可用的工具名称和描述。模型提供商通常会在后台将此结构化输出信息添加到系统提示中。 API 参考: LLMToolSelectorMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import LLMToolSelectorMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[tool1, tool2, tool3, tool4, tool5, ...],
    middleware=[
        LLMToolSelectorMiddleware(
            model="gpt-4.1-mini",
            max_tools=3,
            always_include=["search"],
        ),
    ],
)
model
string | BaseChatModel
用于工具选择的模型。可以是模型标识符字符串(例如,'openai:gpt-4.1-mini')或 BaseChatModel 实例。有关更多信息,请参见 init_chat_model默认为代理的主模型。
system_prompt
string
选择模型的指令。如果未指定,则使用内置提示。
max_tools
number
要选择的最大工具数。如果模型选择更多,则仅使用前 max_tools 个。如果未指定,则无限制。
always_include
list[string]
无论选择如何都始终包含的工具名称。这些不计入 max_tools 限制。

工具重试

使用可配置的指数退避自动重试失败的工具调用。工具重试适用于以下情况:
  • 处理外部 API 调用中的瞬时故障。
  • 提高依赖网络的工具的可靠性。
  • 构建能够优雅处理临时错误的弹性代理。
API 参考: ToolRetryMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import ToolRetryMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, database_tool],
    middleware=[
        ToolRetryMiddleware(
            max_retries=3,
            backoff_factor=2.0,
            initial_delay=1.0,
        ),
    ],
)
max_retries
number
default:"2"
初始调用后的最大重试尝试次数(默认情况下总共 3 次尝试)
tools
list[BaseTool | str]
要应用重试逻辑的可选工具或工具名称列表。如果为 None,则应用于所有工具。
retry_on
tuple[type[Exception], ...] | callable
default:"(Exception,)"
要重试的异常类型的元组,或者一个可调用对象,该对象接受异常并在应重试时返回 True
on_failure
string | callable
default:"return_message"
所有重试耗尽后的行为。选项:
  • 'return_message' - 返回包含错误详细信息的 ToolMessage(允许 LLM 处理失败)
  • 'raise' - 重新引发异常(停止代理执行)
  • 自定义可调用对象 - 接受异常并返回字符串作为 ToolMessage 内容的函数
backoff_factor
number
default:"2.0"
指数退避的乘数。每次重试等待 initial_delay * (backoff_factor ** retry_number) 秒。设置为 0.0 表示恒定延迟。
initial_delay
number
default:"1.0"
首次重试前的初始延迟(秒)
max_delay
number
default:"60.0"
重试之间的最大延迟(秒)(限制指数退避增长)
jitter
boolean
default:"true"
是否向延迟添加随机抖动(±25%)以避免惊群效应
中间件自动使用指数退避重试失败的工具调用。关键配置:
  • max_retries - 重试尝试次数(默认:2)
  • backoff_factor - 指数退避乘数(默认:2.0)
  • initial_delay - 起始延迟(秒)(默认:1.0)
  • max_delay - 延迟增长上限(默认:60.0)
  • jitter - 添加随机变化(默认:True)
失败处理:
  • on_failure='return_message' - 返回错误消息
  • on_failure='raise' - 重新引发异常
  • 自定义函数 - 返回错误消息的函数
from langchain.agents import create_agent
from langchain.agents.middleware import ToolRetryMiddleware


agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, database_tool, api_tool],
    middleware=[
        ToolRetryMiddleware(
            max_retries=3,
            backoff_factor=2.0,
            initial_delay=1.0,
            max_delay=60.0,
            jitter=True,
            tools=["api_tool"],
            retry_on=(ConnectionError, TimeoutError),
            on_failure="continue",
        ),
    ],
)

模型重试

使用可配置的指数退避自动重试失败的模型调用。模型重试适用于以下情况:
  • 处理模型 API 调用中的瞬时故障。
  • 提高依赖网络的模型请求的可靠性。
  • 构建能够优雅处理临时模型错误的弹性代理。
API 参考: ModelRetryMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import ModelRetryMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, database_tool],
    middleware=[
        ModelRetryMiddleware(
            max_retries=3,
            backoff_factor=2.0,
            initial_delay=1.0,
        ),
    ],
)
max_retries
number
default:"2"
初始调用后的最大重试尝试次数(默认情况下总共 3 次尝试)
retry_on
tuple[type[Exception], ...] | callable
default:"(Exception,)"
要重试的异常类型的元组,或者一个可调用对象,该对象接受异常并在应重试时返回 True
on_failure
string | callable
default:"continue"
所有重试耗尽后的行为。选项:
  • 'continue'(默认) - 返回包含错误详细信息的 AIMessage,允许代理可能优雅地处理失败
  • 'error' - 重新引发异常(停止代理执行)
  • 自定义可调用对象 - 接受异常并返回字符串作为 AIMessage 内容的函数
backoff_factor
number
default:"2.0"
指数退避的乘数。每次重试等待 initial_delay * (backoff_factor ** retry_number) 秒。设置为 0.0 表示恒定延迟。
initial_delay
number
default:"1.0"
首次重试前的初始延迟(秒)
max_delay
number
default:"60.0"
重试之间的最大延迟(秒)(限制指数退避增长)
jitter
boolean
default:"true"
是否向延迟添加随机抖动(±25%)以避免惊群效应
中间件自动使用指数退避重试失败的模型调用。
from langchain.agents import create_agent
from langchain.agents.middleware import ModelRetryMiddleware


# 基本用法,默认设置(2 次重试,指数退避)
agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool],
    middleware=[ModelRetryMiddleware()],
)

# 自定义异常过滤
class TimeoutError(Exception):
    """超时错误的自定义异常。"""
    pass

class ConnectionError(Exception):
    """连接错误的自定义异常。"""
    pass

# 仅重试特定异常
retry = ModelRetryMiddleware(
    max_retries=4,
    retry_on=(TimeoutError, ConnectionError),
    backoff_factor=1.5,
)


def should_retry(error: Exception) -> bool:
    # 仅重试速率限制错误
    if isinstance(error, TimeoutError):
        return True
    # 或检查特定的 HTTP 状态码
    if hasattr(error, "status_code"):
        return error.status_code in (429, 503)
    return False

retry_with_filter = ModelRetryMiddleware(
    max_retries=3,
    retry_on=should_retry,
)

# 返回错误消息而不是引发异常
retry_continue = ModelRetryMiddleware(
    max_retries=4,
    on_failure="continue",  # 返回 AIMessage 及错误,而不是引发异常
)

# 自定义错误消息格式
def format_error(error: Exception) -> str:
    return f"Model call failed: {error}. Please try again later."

retry_with_formatter = ModelRetryMiddleware(
    max_retries=4,
    on_failure=format_error,
)

# 恒定退避(无指数增长)
constant_backoff = ModelRetryMiddleware(
    max_retries=5,
    backoff_factor=0.0,  # 无指数增长
    initial_delay=2.0,  # 始终等待 2 秒
)

# 失败时引发异常
strict_retry = ModelRetryMiddleware(
    max_retries=2,
    on_failure="error",  # 重新引发异常而不是返回消息
)

LLM 工具模拟器

使用 LLM 模拟工具执行以用于测试目的,用 AI 生成的响应替换实际工具调用。LLM 工具模拟器适用于以下情况:
  • 测试代理行为而不执行真实工具。
  • 在外部工具不可用或昂贵时开发代理。
  • 在实现实际工具之前原型化代理工作流。
API 参考: LLMToolEmulator
from langchain.agents import create_agent
from langchain.agents.middleware import LLMToolEmulator

agent = create_agent(
    model="gpt-4.1",
    tools=[get_weather, search_database, send_email],
    middleware=[
        LLMToolEmulator(),  # 模拟所有工具
    ],
)
tools
list[str | BaseTool]
要模拟的工具名称(str)或 BaseTool 实例列表。如果为 None(默认),则模拟所有工具。如果为空列表 [],则不模拟任何工具。如果包含工具名称/实例的数组,则仅模拟这些工具。
model
string | BaseChatModel
用于生成模拟工具响应的模型。可以是模型标识符字符串(例如,'anthropic:claude-sonnet-4-6')或 BaseChatModel 实例。如果未指定,则默认为代理的模型。有关更多信息,请参见 init_chat_model
中间件使用 LLM 为工具调用生成合理的响应,而不是执行实际工具。
from langchain.agents import create_agent
from langchain.agents.middleware import LLMToolEmulator
from langchain.tools import tool


@tool
def get_weather(location: str) -> str:
    """获取某个位置的当前天气。"""
    return f"Weather in {location}"

@tool
def send_email(to: str, subject: str, body: str) -> str:
    """发送电子邮件。"""
    return "Email sent"


# 模拟所有工具(默认行为)
agent = create_agent(
    model="gpt-4.1",
    tools=[get_weather, send_email],
    middleware=[LLMToolEmulator()],
)

# 仅模拟特定工具
agent2 = create_agent(
    model="gpt-4.1",
    tools=[get_weather, send_email],
    middleware=[LLMToolEmulator(tools=["get_weather"])],
)

# 使用自定义模型进行模拟
agent4 = create_agent(
    model="gpt-4.1",
    tools=[get_weather, send_email],
    middleware=[LLMToolEmulator(model="claude-sonnet-4-6")],
)

上下文编辑

通过在令牌限制达到时清除较旧的工具调用输出来管理对话上下文,同时保留最近的结果。这有助于在具有许多工具调用的长时间对话中保持上下文窗口可管理。上下文编辑适用于以下情况:
  • 具有许多工具调用且超过令牌限制的长时间对话
  • 通过删除不再相关的较旧工具输出来降低令牌成本
  • 在上下文中仅保留最近的 N 个工具结果
API 参考: ContextEditingMiddleware, ClearToolUsesEdit
from langchain.agents import create_agent
from langchain.agents.middleware import ContextEditingMiddleware, ClearToolUsesEdit

agent = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        ContextEditingMiddleware(
            edits=[
                ClearToolUsesEdit(
                    trigger=100000,
                    keep=3,
                ),
            ],
        ),
    ],
)
edits
list[ContextEdit]
default:"[ClearToolUsesEdit()]"
要应用的 ContextEdit 策略列表
token_count_method
string
default:"approximate"
令牌计数方法。选项:'approximate''model'
ClearToolUsesEdit 选项:
trigger
number
default:"100000"
触发编辑的令牌计数。当对话超过此令牌计数时,将清除较旧的工具输出。
clear_at_least
number
default:"0"
编辑运行时要回收的最小令牌数。如果设置为 0,则清除所需数量。
keep
number
default:"3"
必须保留的最近工具结果数。这些将永远不会被清除。
clear_tool_inputs
boolean
default:"False"
是否清除 AI 消息上的原始工具调用参数。当为 True 时,工具调用参数将替换为空对象。
exclude_tools
list[string]
default:"()"
要排除在清除之外的工具名称列表。这些工具的输出将永远不会被清除。
placeholder
string
default:"[cleared]"
为清除的工具输出插入的占位符文本。这将替换原始工具消息内容。
中间件在达到令牌限制时应用上下文编辑策略。最常见的策略是 ClearToolUsesEdit,它清除较旧的工具结果,同时保留最近的工具结果。工作原理:
  1. 监控对话中的令牌计数
  2. 达到阈值时,清除较旧的工具输出
  3. 保留最近的 N 个工具结果
  4. 可选择保留工具调用参数以保留上下文
from langchain.agents import create_agent
from langchain.agents.middleware import ContextEditingMiddleware, ClearToolUsesEdit


agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool, your_calculator_tool, database_tool],
    middleware=[
        ContextEditingMiddleware(
            edits=[
                ClearToolUsesEdit(
                    trigger=2000,
                    keep=3,
                    clear_tool_inputs=False,
                    exclude_tools=[],
                    placeholder="[cleared]",
                ),
            ],
        ),
    ],
)

Shell 工具

向代理公开持久 shell 会话以执行命令。Shell 工具中间件适用于以下情况:
  • 需要执行系统命令的代理
  • 开发和部署自动化任务
  • 测试和验证工作流
  • 文件系统操作和脚本执行
安全考虑:使用适当的执行策略(HostExecutionPolicyDockerExecutionPolicyCodexSandboxExecutionPolicy)来匹配您部署的安全要求。
限制:持久 shell 会话目前不适用于中断(人在环)。我们预计将来会添加对此的支持。
API 参考: ShellToolMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import (
    ShellToolMiddleware,
    HostExecutionPolicy,
)

agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool],
    middleware=[
        ShellToolMiddleware(
            workspace_root="/workspace",
            execution_policy=HostExecutionPolicy(),
        ),
    ],
)
workspace_root
str | Path | None
shell 会话的基本目录。如果省略,则在代理启动时创建临时目录,并在结束时删除。
startup_commands
tuple[str, ...] | list[str] | str | None
会话启动后顺序执行的可选命令
shutdown_commands
tuple[str, ...] | list[str] | str | None
会话关闭前执行的可选命令
execution_policy
BaseExecutionPolicy | None
控制超时、输出限制和资源配置的执行策略。选项:
  • HostExecutionPolicy - 完全主机访问(默认);最适合代理已在容器或 VM 内运行的受信任环境
  • DockerExecutionPolicy - 为每次代理运行启动单独的 Docker 容器,提供更强的隔离
  • CodexSandboxExecutionPolicy - 重用 Codex CLI 沙箱以获得额外的系统调用/文件系统限制
redaction_rules
tuple[RedactionRule, ...] | list[RedactionRule] | None
可选的编辑规则,用于在将命令输出返回给模型之前对其进行清理。
编辑规则在执行后应用,当使用 HostExecutionPolicy 时,无法防止秘密或敏感数据的泄露。
tool_description
str | None
注册的 shell 工具描述的可选覆盖
shell_command
Sequence[str] | str | None
用于启动持久会话的可选 shell 可执行文件(字符串)或参数序列。默认为 /bin/bash
env
Mapping[str, Any] | None
提供给 shell 会话的可选环境变量。值在命令执行前强制转换为字符串。
中间件提供一个持久的 shell 会话,代理可以使用它顺序执行命令。执行策略:
  • HostExecutionPolicy(默认) - 具有完全主机访问权限的本机执行
  • DockerExecutionPolicy - 隔离的 Docker 容器执行
  • CodexSandboxExecutionPolicy - 通过 Codex CLI 进行沙箱执行
from langchain.agents import create_agent
from langchain.agents.middleware import (
    ShellToolMiddleware,
    HostExecutionPolicy,
    DockerExecutionPolicy,
    RedactionRule,
)


# 基本 shell 工具,使用主机执行
agent = create_agent(
    model="gpt-4.1",
    tools=[search_tool],
    middleware=[
        ShellToolMiddleware(
            workspace_root="/workspace",
            execution_policy=HostExecutionPolicy(),
        ),
    ],
)

# Docker 隔离,带启动命令
agent_docker = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        ShellToolMiddleware(
            workspace_root="/workspace",
            startup_commands=["pip install requests", "export PYTHONPATH=/workspace"],
            execution_policy=DockerExecutionPolicy(
                image="python:3.11-slim",
                command_timeout=60.0,
            ),
        ),
    ],
)

# 带输出编辑(执行后应用)
agent_redacted = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        ShellToolMiddleware(
            workspace_root="/workspace",
            redaction_rules=[
                RedactionRule(pii_type="api_key", detector=r"sk-[a-zA-Z0-9]{32}"),
            ],
        ),
    ],
)

文件搜索

提供基于文件系统的 Glob 和 Grep 搜索工具。文件搜索中间件适用于以下情况:
  • 代码探索和分析
  • 按名称模式查找文件
  • 使用正则表达式搜索代码内容
  • 需要文件发现的大型代码库
API 参考: FilesystemFileSearchMiddleware
from langchain.agents import create_agent
from langchain.agents.middleware import FilesystemFileSearchMiddleware

agent = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        FilesystemFileSearchMiddleware(
            root_path="/workspace",
            use_ripgrep=True,
        ),
    ],
)
root_path
str
required
要搜索的根目录。所有文件操作都相对于此路径。
use_ripgrep
bool
default:"True"
是否使用 ripgrep 进行搜索。如果 ripgrep 不可用,则回退到 Python 正则表达式。
max_file_size_mb
int
default:"10"
要搜索的最大文件大小(MB)。大于此大小的文件将被跳过。
中间件向代理添加两个搜索工具:Glob 工具 - 快速文件模式匹配:
  • 支持模式如 **/*.pysrc/**/*.ts
  • 返回按修改时间排序的匹配文件路径
Grep 工具 - 使用正则表达式的内容搜索:
  • 支持完整的正则表达式语法
  • 使用 include 参数按文件模式过滤
  • 三种输出模式:files_with_matchescontentcount
from langchain.agents import create_agent
from langchain.agents.middleware import FilesystemFileSearchMiddleware
from langchain.messages import HumanMessage


agent = create_agent(
    model="gpt-4.1",
    tools=[],
    middleware=[
        FilesystemFileSearchMiddleware(
            root_path="/workspace",
            use_ripgrep=True,
            max_file_size_mb=10,
        ),
    ],
)

# 代理现在可以使用 glob_search 和 grep_search 工具
result = agent.invoke({
    "messages": [HumanMessage("查找所有包含 'async def' 的 Python 文件")]
})

# 代理将使用:
# 1. glob_search(pattern="**/*.py") 查找 Python 文件
# 2. grep_search(pattern="async def", include="*.py") 查找异步函数

文件系统中间件

上下文工程是构建有效代理的主要挑战。当使用返回可变长度结果的工具(例如,web_search 和 RAG)时,这一点尤其困难,因为长工具结果会快速填满您的上下文窗口。 来自 Deep AgentsFilesystemMiddleware 提供了四个工具来与短期和长期记忆交互:
  • ls:列出文件系统中的文件
  • read_file:读取整个文件或文件的特定行数
  • write_file:将新文件写入文件系统
  • edit_file:编辑文件系统中的现有文件
from langchain.agents import create_agent
from deepagents.middleware.filesystem import FilesystemMiddleware

# FilesystemMiddleware 默认包含在 create_deep_agent 中
# 如果构建自定义代理,可以自定义它
agent = create_agent(
    model="claude-sonnet-4-6",
    middleware=[
        FilesystemMiddleware(
            backend=None,  # 可选:自定义后端(默认为 StateBackend)
            system_prompt="Write to the filesystem when...",  # 可选:系统提示的自定义补充
            custom_tool_descriptions={
                "ls": "Use the ls tool when...",
                "read_file": "Use the read_file tool to..."
            }  # 可选:文件系统工具的自定义描述
        ),
    ],
)

短期与长期文件系统

默认情况下,这些工具写入图状态中的本地“文件系统”。要启用跨线程的持久存储,请配置一个 CompositeBackend,将特定路径(如 /memories/)路由到 StoreBackend
from langchain.agents import create_agent
from deepagents.middleware import FilesystemMiddleware
from deepagents.backends import CompositeBackend, StateBackend, StoreBackend
from langgraph.store.memory import InMemoryStore

store = InMemoryStore()

agent = create_agent(
    model="claude-sonnet-4-6",
    store=store,
    middleware=[
        FilesystemMiddleware(
            backend=CompositeBackend(
                default=StateBackend(),
                routes={"/memories/": StoreBackend()}
            ),
            custom_tool_descriptions={
                "ls": "Use the ls tool when...",
                "read_file": "Use the read_file tool to..."
            }  # 可选:文件系统工具的自定义描述
        ),
    ],
)
当您为 /memories/ 配置带有 StoreBackendCompositeBackend 时,任何以 /memories/ 为前缀的文件都将保存到持久存储中,并在不同线程之间保留。没有此前缀的文件将保留在临时状态存储中。

子代理

将任务移交给子代理可以隔离上下文,保持主(监督)代理的上下文窗口干净,同时仍然深入处理任务。 来自 Deep Agents 的子代理中间件允许您通过 task 工具提供子代理。
from langchain.tools import tool
from langchain.agents import create_agent
from deepagents.middleware.subagents import SubAgentMiddleware


@tool
def get_weather(city: str) -> str:
    """获取城市的天气。"""
    return f"The weather in {city} is sunny."

agent = create_agent(
    model="claude-sonnet-4-6",
    middleware=[
        SubAgentMiddleware(
            default_model="claude-sonnet-4-6",
            default_tools=[],
            subagents=[
                {
                    "name": "weather",
                    "description": "此子代理可以获取城市的天气。",
                    "system_prompt": "使用 get_weather 工具获取城市的天气。",
                    "tools": [get_weather],
                    "model": "gpt-4.1",
                    "middleware": [],
                }
            ],
        )
    ],
)
子代理使用名称描述系统提示工具定义。您还可以为子代理提供自定义模型或附加中间件。当您想给子代理一个额外的状态键以与主代理共享时,这可能特别有用。 对于更复杂的用例,您还可以提供您自己的预构建 LangGraph 图作为子代理。
from langchain.agents import create_agent
from deepagents.middleware.subagents import SubAgentMiddleware
from deepagents import CompiledSubAgent
from langgraph.graph import StateGraph

# 创建自定义 LangGraph 图
def create_weather_graph():
    workflow = StateGraph(...)
    # 构建您的自定义图
    return workflow.compile()

weather_graph = create_weather_graph()

# 将其包装在 CompiledSubAgent 中
weather_subagent = CompiledSubAgent(
    name="weather",
    description="此子代理可以获取城市的天气。",
    runnable=weather_graph
)

agent = create_agent(
    model="claude-sonnet-4-6",
    middleware=[
        SubAgentMiddleware(
            default_model="claude-sonnet-4-6",
            default_tools=[],
            subagents=[weather_subagent],
        )
    ],
)
除了任何用户定义的子代理外,主代理始终可以访问一个通用子代理。此子代理具有与主代理相同的指令和所有可用工具。通用子代理的主要目的是上下文隔离——主代理可以将复杂任务委托给此子代理,并获得简洁的答案,而不会因中间工具调用而膨胀。

提供商特定的中间件

这些中间件针对特定的 LLM 提供商进行了优化。有关完整详细信息和示例,请参阅每个提供商的文档。
https://mintcdn.com/other-405835d4/agS8-xZoA1Gortud/images/providers/anthropic-icon.svg?fit=max&auto=format&n=agS8-xZoA1Gortud&q=85&s=88c98a84317065dc83e422014a1aac2c

Anthropic

适用于 Claude 模型的提示缓存、bash 工具、文本编辑器、记忆和文件搜索中间件。

AWS

适用于 Amazon Bedrock 模型的提示缓存中间件。

OpenAI

适用于 OpenAI 模型的内容审核中间件。