Skip to main content
代理将语言模型与工具相结合,以创建能够推理任务、决定使用哪些工具并迭代工作以达成解决方案的系统。 create_agent 提供了一个生产就绪的代理实现。 一个 LLM 代理在循环中运行工具以实现目标。 代理会一直运行,直到满足停止条件——即模型发出最终输出或达到迭代限制。
create_agent 使用 LangGraph 构建一个基于的代理运行时。图由节点(步骤)和边(连接)组成,定义了代理如何处理信息。代理通过此图移动,执行节点,例如模型节点(调用模型)、工具节点(执行工具)或中间件。了解更多关于图 API 的信息。

核心组件

模型

模型 是代理的推理引擎。可以通过多种方式指定,支持静态和动态模型选择。

静态模型

静态模型在创建代理时配置一次,并在整个执行过程中保持不变。这是最常见且最直接的方法。 要从 初始化静态模型:
from langchain.agents import create_agent

agent = create_agent("openai:gpt-5", tools=tools)
模型标识符字符串支持自动推断(例如,"gpt-5" 将被推断为 "openai:gpt-5")。请参阅参考 以查看完整的模型标识符字符串映射列表。
要更精细地控制模型配置,可以直接使用提供程序包初始化模型实例。在此示例中,我们使用 ChatOpenAI。请参阅聊天模型 以查看其他可用的聊天模型类。
from langchain.agents import create_agent
from langchain_openai import ChatOpenAI

model = ChatOpenAI(
    model="gpt-5",
    temperature=0.1,
    max_tokens=1000,
    timeout=30
    # ... (其他参数)
)
agent = create_agent(model, tools=tools)
模型实例让您完全控制配置。当您需要设置特定的参数(如 temperaturemax_tokenstimeoutsbase_url 以及其他提供程序特定的设置)时,请使用它们。请参阅参考 以查看模型上可用的参数和方法。

动态模型

动态模型在根据当前的和上下文进行选择。这支持复杂的路由逻辑和成本优化。 要使用动态模型,请使用 @wrap_model_call 装饰器创建中间件,以修改请求中的模型:
from langchain_openai import ChatOpenAI
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_model_call, ModelRequest, ModelResponse


basic_model = ChatOpenAI(model="gpt-4.1-mini")
advanced_model = ChatOpenAI(model="gpt-4.1")

@wrap_model_call
def dynamic_model_selection(request: ModelRequest, handler) -> ModelResponse:
    """根据对话复杂度选择模型"""
    message_count = len(request.state["messages"])

    if message_count > 10:
        # 对于较长的对话,使用高级模型
        model = advanced_model
    else:
        model = basic_model

    return handler(request.override(model=model))

agent = create_agent(
    model=basic_model,  # 默认模型
    tools=tools,
    middleware=[dynamic_model_selection]
)
当使用结构化输出时,不支持预绑定模型(已调用 bind_tools 的模型)。如果需要在结构化输出时进行动态模型选择,请确保传递给中间件的模型未预绑定。
有关模型配置的详细信息,请参阅模型。有关动态模型选择模式,请参阅中间件中的动态模型

工具

工具赋予代理采取行动的能力。代理超越了简单的仅模型工具绑定,支持:
  • 按顺序进行多次工具调用(由单个提示触发)
  • 在适当时进行并行工具调用
  • 基于先前结果的动态工具选择
  • 工具重试逻辑和错误处理
  • 跨工具调用的状态持久性
有关更多信息,请参阅工具

静态工具

静态工具在创建代理时定义,并在整个执行过程中保持不变。这是最常见且最直接的方法。 要定义具有静态工具的代理,请将工具列表传递给代理。
工具可以指定为普通 Python 函数或可以使用工具装饰器来自定义工具名称、描述、参数模式和其他属性。
from langchain.tools import tool
from langchain.agents import create_agent


@tool
def search(query: str) -> str:
    """搜索信息"""
    return f"Results for: {query}"

@tool
def get_weather(location: str) -> str:
    """获取某地的天气信息"""
    return f"Weather in {location}: Sunny, 72°F"

agent = create_agent(model, tools=[search, get_weather])
如果提供了空的工具列表,代理将由一个没有工具调用能力的单个 LLM 节点组成。

动态工具

使用动态工具时,代理可用的工具集是在运行时修改的,而不是预先定义的。并非所有工具都适用于所有情况。工具太多可能会使模型不堪重负(上下文过载)并增加错误;工具太少会限制功能。动态工具选择支持根据身份验证状态、用户权限、功能标志或对话阶段调整可用工具集。 根据工具是否提前已知,有两种方法:
当所有可能的工具在代理创建时已知时,您可以预先注册它们,并根据状态、权限或上下文动态过滤暴露给模型的工具。
仅在达到特定对话里程碑后启用高级工具:
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_model_call, ModelRequest, ModelResponse
from typing import Callable

@wrap_model_call
def state_based_tools(
    request: ModelRequest,
    handler: Callable[[ModelRequest], ModelResponse]
) -> ModelResponse:
    """根据对话状态过滤工具"""
    # 从状态读取:检查用户是否已认证
    state = request.state
    is_authenticated = state.get("authenticated", False)
    message_count = len(state["messages"])

    # 仅在认证后启用敏感工具
    if not is_authenticated:
        tools = [t for t in request.tools if t.name.startswith("public_")]
        request = request.override(tools=tools)
    elif message_count < 5:
        # 在对话早期限制工具
        tools = [t for t in request.tools if t.name != "advanced_search"]
        request = request.override(tools=tools)

    return handler(request)

agent = create_agent(
    model="gpt-4.1",
    tools=[public_search, private_search, advanced_search],
    middleware=[state_based_tools]
)
此方法在以下情况下最佳:
  • 所有可能的工具在编译/启动时已知
  • 您希望基于权限、功能标志或对话状态进行过滤
  • 工具是静态的,但其可用性是动态的
有关更多示例,请参阅动态选择工具
要了解有关工具的更多信息,请参阅工具

工具错误处理

要自定义工具错误的处理方式,请使用 @wrap_tool_call 装饰器创建中间件:
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_tool_call
from langchain.messages import ToolMessage


@wrap_tool_call
def handle_tool_errors(request, handler):
    """使用自定义消息处理工具执行错误"""
    try:
        return handler(request)
    except Exception as e:
        # 向模型返回自定义错误消息
        return ToolMessage(
            content=f"Tool error: Please check your input and try again. ({str(e)})",
            tool_call_id=request.tool_call["id"]
        )

agent = create_agent(
    model="gpt-4.1",
    tools=[search, get_weather],
    middleware=[handle_tool_errors]
)
当工具失败时,代理将返回一个带有自定义错误消息的 ToolMessage
[
    ...
    ToolMessage(
        content="Tool error: Please check your input and try again. (division by zero)",
        tool_call_id="..."
    ),
    ...
]

ReAct 循环中的工具使用

代理遵循 ReAct(“推理 + 行动”)模式,在简短的推理步骤和有针对性的工具调用之间交替进行,并将结果观察结果输入后续决策,直到可以提供最终答案。
提示: 识别当前最受欢迎的无线耳机并验证库存。
================================ Human Message =================================

Find the most popular wireless headphones right now and check if they're in stock
  • 推理: “流行度是时间敏感的,我需要使用提供的搜索工具。”
  • 行动: 调用 search_products("wireless headphones")
================================== Ai Message ==================================
Tool Calls:
  search_products (call_abc123)
 Call ID: call_abc123
  Args:
    query: wireless headphones
================================= Tool Message =================================

Found 5 products matching "wireless headphones". Top 5 results: WH-1000XM5, ...
  • 推理: “我需要在回答前确认排名靠前的项目的库存。”
  • 行动: 调用 check_inventory("WH-1000XM5")
================================== Ai Message ==================================
Tool Calls:
  check_inventory (call_def456)
 Call ID: call_def456
  Args:
    product_id: WH-1000XM5
================================= Tool Message =================================

Product WH-1000XM5: 10 units in stock
  • 推理: “我有了最受欢迎的型号及其库存状态。我现在可以回答用户的问题了。”
  • 行动: 生成最终答案
================================== Ai Message ==================================

I found wireless headphones (model WH-1000XM5) with 10 units in stock...

系统提示

您可以通过提供提示来塑造代理处理任务的方式。system_prompt 参数可以作为字符串提供:
agent = create_agent(
    model,
    tools,
    system_prompt="You are a helpful assistant. Be concise and accurate."
)
如果未提供 system_prompt,代理将直接从消息中推断其任务。 system_prompt 参数接受 strSystemMessage。使用 SystemMessage 可以让您更好地控制提示结构,这对于提供程序特定的功能(如 Anthropic 的提示缓存)非常有用:
from langchain.agents import create_agent
from langchain.messages import SystemMessage, HumanMessage

literary_agent = create_agent(
    model="anthropic:claude-sonnet-4-5",
    system_prompt=SystemMessage(
        content=[
            {
                "type": "text",
                "text": "You are an AI assistant tasked with analyzing literary works.",
            },
            {
                "type": "text",
                "text": "<the entire contents of 'Pride and Prejudice'>",
                "cache_control": {"type": "ephemeral"}
            }
        ]
    )
)

result = literary_agent.invoke(
    {"messages": [HumanMessage("Analyze the major themes in 'Pride and Prejudice'.")]}
)
带有 {"type": "ephemeral"}cache_control 字段告诉 Anthropic 缓存该内容块,从而减少重复请求的延迟和成本。

动态系统提示

对于更高级的用例,您需要根据运行时上下文或代理状态修改系统提示,您可以使用中间件 @dynamic_prompt 装饰器创建一个中间件,根据模型请求生成系统提示:
from typing import TypedDict

from langchain.agents import create_agent
from langchain.agents.middleware import dynamic_prompt, ModelRequest


class Context(TypedDict):
    user_role: str

@dynamic_prompt
def user_role_prompt(request: ModelRequest) -> str:
    """根据用户角色生成系统提示"""
    user_role = request.runtime.context.get("user_role", "user")
    base_prompt = "You are a helpful assistant."

    if user_role == "expert":
        return f"{base_prompt} Provide detailed technical responses."
    elif user_role == "beginner":
        return f"{base_prompt} Explain concepts simply and avoid jargon."

    return base_prompt

agent = create_agent(
    model="gpt-4.1",
    tools=[web_search],
    middleware=[user_role_prompt],
    context_schema=Context
)

# 系统提示将根据上下文动态设置
result = agent.invoke(
    {"messages": [{"role": "user", "content": "Explain machine learning"}]},
    context={"user_role": "expert"}
)
有关消息类型和格式的更多详细信息,请参阅消息。有关中间件的综合文档,请参阅中间件

名称

为代理设置一个可选的名称。当将代理作为子图添加到多代理系统时,这将用作节点标识符:
agent = create_agent(
    model,
    tools,
    name="research_assistant"
)
代理名称首选 snake_case(例如,research_assistant 而不是 Research Assistant)。某些模型提供程序会拒绝包含空格或特殊字符的名称并报错。仅使用字母数字字符、下划线和连字符可确保与所有提供程序的兼容性。这同样适用于工具名称

调用

您可以通过向其状态传递更新来调用代理。所有代理的状态中都包含一个消息序列;要调用代理,请传递一个新消息:
result = agent.invoke(
    {"messages": [{"role": "user", "content": "What's the weather in San Francisco?"}]}
)
要流式传输代理的步骤和/或令牌,请参阅流式传输 指南。 否则,代理遵循 LangGraph 图 API 并支持所有相关方法,例如 streaminvoke
使用 LangSmith 来跟踪、调试和评估您的代理。

高级概念

结构化输出

在某些情况下,您可能希望代理以特定格式返回输出。LangChain 通过 response_format 参数提供结构化输出的策略。

ToolStrategy

ToolStrategy 使用人工工具调用来生成结构化输出。这适用于任何支持工具调用的模型。当提供程序原生的结构化输出(通过 ProviderStrategy)不可用或不可靠时,应使用 ToolStrategy
from pydantic import BaseModel
from langchain.agents import create_agent
from langchain.agents.structured_output import ToolStrategy


class ContactInfo(BaseModel):
    name: str
    email: str
    phone: str

agent = create_agent(
    model="gpt-4.1-mini",
    tools=[search_tool],
    response_format=ToolStrategy(ContactInfo)
)

result = agent.invoke({
    "messages": [{"role": "user", "content": "Extract contact info from: John Doe, john@example.com, (555) 123-4567"}]
})

result["structured_response"]
# ContactInfo(name='John Doe', email='john@example.com', phone='(555) 123-4567')

ProviderStrategy

ProviderStrategy 使用模型提供程序的原生结构化输出生成。这更可靠,但仅适用于支持原生结构化输出的提供程序:
from langchain.agents.structured_output import ProviderStrategy

agent = create_agent(
    model="gpt-4.1",
    response_format=ProviderStrategy(ContactInfo)
)
截至 langchain 1.0,只需传递一个模式(例如,response_format=ContactInfo)将默认为 ProviderStrategy(如果模型支持原生结构化输出)。否则将回退到 ToolStrategy
要了解有关结构化输出的信息,请参阅结构化输出

内存

代理通过消息状态自动维护对话历史记录。您还可以配置代理使用自定义状态模式,以在对话期间记住附加信息。 存储在状态中的信息可以被认为是代理的短期记忆 自定义状态模式必须将 AgentState 扩展为 TypedDict 有两种定义自定义状态的方法:
  1. 通过中间件(首选)
  2. 通过 create_agent 上的 state_schema

通过中间件定义状态

当您的自定义状态需要被特定中间件钩子和附加到所述中间件的工具访问时,使用中间件定义自定义状态。
from langchain.agents import AgentState
from langchain.agents.middleware import AgentMiddleware
from typing import Any


class CustomState(AgentState):
    user_preferences: dict

class CustomMiddleware(AgentMiddleware):
    state_schema = CustomState
    tools = [tool1, tool2]

    def before_model(self, state: CustomState, runtime) -> dict[str, Any] | None:
        ...

agent = create_agent(
    model,
    tools=tools,
    middleware=[CustomMiddleware()]
)

# 代理现在可以跟踪消息之外的附加状态
result = agent.invoke({
    "messages": [{"role": "user", "content": "I prefer technical explanations"}],
    "user_preferences": {"style": "technical", "verbosity": "detailed"},
})

通过 state_schema 定义状态

使用 state_schema 参数作为快捷方式,定义仅在工具中使用的自定义状态。
from langchain.agents import AgentState


class CustomState(AgentState):
    user_preferences: dict

agent = create_agent(
    model,
    tools=[tool1, tool2],
    state_schema=CustomState
)
# 代理现在可以跟踪消息之外的附加状态
result = agent.invoke({
    "messages": [{"role": "user", "content": "I prefer technical explanations"}],
    "user_preferences": {"style": "technical", "verbosity": "detailed"},
})
截至 langchain 1.0,自定义状态模式必须TypedDict 类型。不再支持 Pydantic 模型和数据类。有关更多详细信息,请参阅v1 迁移指南
通过中间件定义自定义状态优于通过 create_agent 上的 state_schema 定义,因为它允许您将状态扩展在概念上限定在相关的中间件和工具范围内。state_schema 仍受支持,用于 create_agent 的向后兼容性。
要了解有关内存的更多信息,请参阅内存。有关实现跨会话持久化的长期记忆的信息,请参阅长期记忆

流式传输

我们已经了解了如何使用 invoke 调用代理以获取最终响应。如果代理执行多个步骤,这可能需要一段时间。为了显示中间进度,我们可以在消息发生时流式传回消息。
from langchain.messages import AIMessage, HumanMessage

for chunk in agent.stream({
    "messages": [{"role": "user", "content": "Search for AI news and summarize the findings"}]
}, stream_mode="values"):
    # 每个块包含该时间点的完整状态
    latest_message = chunk["messages"][-1]
    if latest_message.content:
        if isinstance(latest_message, HumanMessage):
            print(f"User: {latest_message.content}")
        elif isinstance(latest_message, AIMessage):
            print(f"Agent: {latest_message.content}")
    elif latest_message.tool_calls:
        print(f"Calling tools: {[tc['name'] for tc in latest_message.tool_calls]}")
有关流式传输的更多详细信息,请参阅流式传输

中间件

中间件 为在执行的不同阶段自定义代理行为提供了强大的可扩展性。您可以使用中间件来:
  • 在调用模型之前处理状态(例如,消息修剪、上下文注入)
  • 修改或验证模型的响应(例如,护栏、内容过滤)
  • 使用自定义逻辑处理工具执行错误
  • 基于状态或上下文实现动态模型选择
  • 添加自定义日志记录、监控或分析
中间件无缝集成到代理的执行中,允许您在关键点拦截和修改数据流,而无需更改核心代理逻辑。
有关中间件的综合文档,包括装饰器如 @before_model@after_model@wrap_tool_call,请参阅中间件