Skip to main content
本指南概述了 LangChain v1 与以前版本之间的主要变化。

简化包

langchain 包命名空间在 v1 中已大幅缩减,专注于代理的核心构建块。精简后的包使发现和使用核心功能变得更加容易。

命名空间

模块可用内容说明
langchain.agentscreate_agent, AgentState核心代理创建功能
langchain.messagesMessage types, content blocks, trim_messageslangchain-core 重新导出
langchain.tools@tool, BaseTool, injection helperslangchain-core 重新导出
langchain.chat_modelsinit_chat_model, BaseChatModel统一的模型初始化
langchain.embeddingsinit_embeddings, Embeddings嵌入模型

langchain-classic

如果您在 langchain 包中使用了以下任何内容,您需要安装 langchain-classic 并更新您的导入:
  • 遗留链(LLMChainConversationChain 等)
  • 检索器(例如 MultiQueryRetriever 或以前 langchain.retrievers 模块中的任何内容)
  • 索引 API
  • Hub 模块(用于以编程方式管理提示)
  • 嵌入模块(例如 CacheBackedEmbeddings 和社区嵌入)
  • langchain-community 重新导出
  • 其他已弃用的功能
# Chains
from langchain_classic.chains import LLMChain

# Retrievers
from langchain_classic.retrievers import ...

# Indexing
from langchain_classic.indexes import ...

# Hub
from langchain_classic import hub
安装方式:
pip install langchain-classic

迁移到 create_agent

在 v1.0 之前,我们建议使用 langgraph.prebuilt.create_react_agent 来构建代理。现在,我们建议您使用 langchain.agents.create_agent 来构建代理。 下表概述了从 create_react_agentcreate_agent 的功能变化:
章节简述 - 变化内容
导入路径包从 langgraph.prebuilt 移至 langchain.agents
提示词参数重命名为 system_prompt,动态提示使用中间件
模型前钩子由具有 before_model 方法的中间件替换
模型后钩子由具有 after_model 方法的中间件替换
自定义状态仅支持 TypedDict,可通过 state_schema 或中间件定义
模型通过中间件动态选择,不支持预绑定模型
工具工具错误处理移至具有 wrap_tool_call 的中间件
结构化输出移除了提示输出,使用 ToolStrategy/ProviderStrategy
流式节点名称节点名称从 "agent" 改为 "model"
运行时上下文通过 context 参数而非 config["configurable"] 进行依赖注入
命名空间精简为专注于代理构建块,遗留代码移至 langchain-classic

导入路径

代理预构建的导入路径已从 langgraph.prebuilt 改为 langchain.agents。 函数名称已从 create_react_agent 改为 create_agent
from langgraph.prebuilt import create_react_agent 
from langchain.agents import create_agent 
更多信息请参阅代理

提示词

静态提示词重命名

prompt 参数已重命名为 system_prompt
from langchain.agents import create_agent

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[check_weather],
    system_prompt="You are a helpful assistant"
)

SystemMessage 转为字符串

如果在系统提示中使用 SystemMessage 对象,请提取字符串内容:
from langchain.agents import create_agent

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[check_weather],
    system_prompt="You are a helpful assistant"
)

动态提示词

动态提示词是核心的上下文工程模式——根据当前对话状态调整发送给模型的内容。为此,使用 @dynamic_prompt 装饰器:
from dataclasses import dataclass

from langchain.agents import create_agent
from langchain.agents.middleware import dynamic_prompt, ModelRequest
from langgraph.runtime import Runtime


@dataclass
class Context:
    user_role: str = "user"

@dynamic_prompt
def dynamic_prompt(request: ModelRequest) -> str:
    user_role = request.runtime.context.user_role
    base_prompt = "You are a helpful assistant."

    if user_role == "expert":
        prompt = (
            f"{base_prompt} Provide detailed technical responses."
        )
    elif user_role == "beginner":
        prompt = (
            f"{base_prompt} Explain concepts simply and avoid jargon."
        )
    else:
        prompt = base_prompt

    return prompt  

agent = create_agent(
    model="gpt-4.1",
    tools=tools,
    middleware=[dynamic_prompt],
    context_schema=Context
)

# Use with context
agent.invoke(
    {"messages": [{"role": "user", "content": "Explain async programming"}]},
    context=Context(user_role="expert")
)

模型前钩子

模型前钩子现在作为具有 before_model 方法的中间件实现。 这种新模式更具可扩展性——您可以定义多个中间件在调用模型之前运行, 在不同代理之间复用常见模式。 常见使用场景包括:
  • 摘要对话历史
  • 修剪消息
  • 输入护栏,如 PII 编辑
v1 现在内置了摘要中间件作为可选项:
from langchain.agents import create_agent
from langchain.agents.middleware import SummarizationMiddleware

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=tools,
    middleware=[
        SummarizationMiddleware(
            model="claude-sonnet-4-6",
            trigger={"tokens": 1000}
        )
    ]
)

模型后钩子

模型后钩子现在作为具有 after_model 方法的中间件实现。 这种新模式更具可扩展性——您可以定义多个中间件在调用模型之后运行, 在不同代理之间复用常见模式。 常见使用场景包括: v1 内置了用于工具调用人工审批的人在回路中间件:
from langchain.agents import create_agent
from langchain.agents.middleware import HumanInTheLoopMiddleware

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[read_email, send_email],
    middleware=[
        HumanInTheLoopMiddleware(
            interrupt_on={
                "send_email": {
                    "description": "Please review this email before sending",
                    "allowed_decisions": ["approve", "reject"]
                }
            }
        )
    ]
)

自定义状态

自定义状态通过附加字段扩展默认代理状态。您可以通过两种方式定义自定义状态:
  1. 通过 create_agent 上的 state_schema - 最适合工具中使用的状态
  2. 通过中间件 - 最适合由特定中间件钩子及附加到该中间件的工具管理的状态
通过中间件定义自定义状态优于在 create_agent 上通过 state_schema 定义,因为这样可以在概念上将状态扩展限定在相关中间件和工具的范围内。state_schema 仍然受到 create_agent 的向后兼容支持。

通过 state_schema 定义状态

当自定义状态需要被工具访问时,使用 state_schema 参数:
from langchain.tools import tool, ToolRuntime
from langchain.agents import create_agent, AgentState  


# Define custom state extending AgentState
class CustomState(AgentState):
    user_name: str

@tool
def greet(
    runtime: ToolRuntime[None, CustomState]
) -> str:
    """Use this to greet the user by name."""
    user_name = runtime.state.get("user_name", "Unknown")
    return f"Hello {user_name}!"

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[greet],
    state_schema=CustomState  
)

通过中间件定义状态

中间件也可以通过设置 state_schema 属性来定义自定义状态。 这有助于在概念上将状态扩展限定在相关中间件和工具的范围内。
from langchain.agents.middleware import AgentState, AgentMiddleware
from typing_extensions import NotRequired
from typing import Any

class CustomState(AgentState):
    model_call_count: NotRequired[int]

class CallCounterMiddleware(AgentMiddleware[CustomState]):
    state_schema = CustomState  

    def before_model(self, state: CustomState, runtime) -> dict[str, Any] | None:
        count = state.get("model_call_count", 0)
        if count > 10:
            return {"jump_to": "end"}
        return None

    def after_model(self, state: CustomState, runtime) -> dict[str, Any] | None:
        return {"model_call_count": state.get("model_call_count", 0) + 1}

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[...],
    middleware=[CallCounterMiddleware()]
)
有关通过中间件定义自定义状态的更多详情,请参阅中间件文档

状态类型限制

create_agent 对状态 schema 只支持 TypedDict。不再支持 Pydantic 模型和数据类。
from langchain.agents import AgentState, create_agent

# AgentState is a TypedDict
class CustomAgentState(AgentState):
    user_id: str

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=tools,
    state_schema=CustomAgentState  
)
只需从 langchain.agents.AgentState 继承,而不是从 BaseModel 继承或使用 dataclass 装饰。 如果需要执行验证,请在中间件钩子中处理。

模型

动态模型选择允许您根据运行时上下文(例如任务复杂性、成本约束或用户偏好)选择不同的模型。langgraph-prebuilt v0.6 中发布的 create_react_agent 支持通过传递给 model 参数的可调用对象进行动态模型和工具选择。 此功能在 v1 中已移植到中间件接口。

动态模型选择

from langchain.agents import create_agent
from langchain.agents.middleware import (
    AgentMiddleware, ModelRequest
)
from langchain.agents.middleware.types import ModelResponse
from langchain_openai import ChatOpenAI
from typing import Callable

basic_model = ChatOpenAI(model="gpt-5-nano")
advanced_model = ChatOpenAI(model="gpt-5")

class DynamicModelMiddleware(AgentMiddleware):

    def wrap_model_call(self, request: ModelRequest, handler: Callable[[ModelRequest], ModelResponse]) -> ModelResponse:
        if len(request.state.messages) > self.messages_threshold:
            model = advanced_model
        else:
            model = basic_model
        return handler(request.override(model=model))

    def __init__(self, messages_threshold: int) -> None:
        self.messages_threshold = messages_threshold

agent = create_agent(
    model=basic_model,
    tools=tools,
    middleware=[DynamicModelMiddleware(messages_threshold=10)]
)

预绑定模型

为了更好地支持结构化输出,create_agent 不再接受带有工具或配置的预绑定模型:
# 不再支持
model_with_tools = ChatOpenAI().bind_tools([some_tool])
agent = create_agent(model_with_tools, tools=[])

# 改用此方式
agent = create_agent("gpt-4.1-mini", tools=[some_tool])
如果使用结构化输出,动态模型函数可以返回预绑定模型。

工具

create_agenttools 参数接受以下列表:
  • LangChain BaseTool 实例(用 @tool 装饰的函数)
  • 具有适当类型提示和文档字符串的可调用对象(函数)
  • 表示内置提供商工具的 dict
该参数不再接受 ToolNode 实例。
from langchain.agents import create_agent

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[check_weather, search_web]
)

处理工具错误

您现在可以使用实现 wrap_tool_call 方法的中间件配置工具错误的处理方式。
from langchain.agents import create_agent
from langchain.agents.middleware import wrap_tool_call
from langchain.messages import ToolMessage


@wrap_tool_call
def handle_tool_errors(request, handler):
    """Handle tool execution errors with custom messages."""
    try:
        return handler(request)
    except Exception as e:
        # Only handle errors that occur during tool execution due to invalid inputs
        # that pass schema validation but fail at runtime (e.g., invalid SQL syntax).
        # Do NOT handle:
        # - Network failures (use tool retry middleware instead)
        # - Incorrect tool implementation errors (should bubble up)
        # - Schema mismatch errors (already auto-handled by the framework)
        #
        # Return a custom error message to the model
        return ToolMessage(
            content=f"Tool error: Please check your input and try again. ({str(e)})",
            tool_call_id=request.tool_call["id"]
        )

agent = create_agent(
    model="claude-sonnet-4-6",
    tools=[check_weather, search_web],
    middleware=[handle_tool_errors]
)

结构化输出

节点变更

结构化输出以前在独立于主代理的节点中生成。现在不再如此。 我们在主循环中生成结构化输出,降低了成本和延迟。

工具和提供商策略

v1 中有两种新的结构化输出策略:
  • ToolStrategy 使用人工工具调用来生成结构化输出
  • ProviderStrategy 使用提供商原生的结构化输出生成
from langchain.agents import create_agent
from langchain.agents.structured_output import ToolStrategy, ProviderStrategy
from pydantic import BaseModel


class OutputSchema(BaseModel):
    summary: str
    sentiment: str

# Using ToolStrategy
agent = create_agent(
    model="gpt-4.1-mini",
    tools=tools,
    # explicitly using tool strategy
    response_format=ToolStrategy(OutputSchema)
)

移除了提示输出

response_format 参数不再支持提示输出。与人工工具调用和提供商原生结构化输出等策略相比,提示输出未被证明特别可靠。

流式节点名称重命名

从代理流式传输事件时,节点名称已从 "agent" 改为 "model",以更好地反映节点的用途。

运行时上下文

调用代理时,您通常希望传递两种类型的数据:
  • 在整个对话过程中变化的动态状态(例如消息历史)
  • 在对话过程中不变的静态上下文(例如用户元数据)
在 v1 中,通过将 context 参数传递给 invokestream 来支持静态上下文。
from dataclasses import dataclass

from langchain.agents import create_agent


@dataclass
class Context:
    user_id: str
    session_id: str

agent = create_agent(
    model=model,
    tools=tools,
    context_schema=Context  
)

result = agent.invoke(
    {"messages": [{"role": "user", "content": "Hello"}]},
    context=Context(user_id="123", session_id="abc")
)
旧的 config["configurable"] 模式仍然可以向后兼容,但对于新应用或迁移到 v1 的应用,建议使用新的 context 参数。

标准内容

在 v1 中,消息获得了与提供商无关的标准内容块。通过 message.content_blocks 访问它们,可以跨提供商获得一致的类型化视图。现有的 message.content 字段对于字符串或提供商原生结构保持不变。

变更内容

  • 消息上新增了用于规范化内容的 content_blocks 属性
  • 标准化的块形状,在消息中有文档说明
  • 通过 LC_OUTPUT_VERSION=v1output_version="v1" 可选地将标准块序列化到 content

读取标准化内容

from langchain.chat_models import init_chat_model

model = init_chat_model("gpt-5-nano")
response = model.invoke("Explain AI")

for block in response.content_blocks:
    if block["type"] == "reasoning":
        print(block.get("reasoning"))
    elif block["type"] == "text":
        print(block.get("text"))

创建多模态消息

from langchain.messages import HumanMessage

message = HumanMessage(content_blocks=[
    {"type": "text", "text": "Describe this image."},
    {"type": "image", "url": "https://example.com/image.jpg"},
])
res = model.invoke([message])

块形状示例

# Text block
text_block = {
    "type": "text",
    "text": "Hello world",
}

# Image block
image_block = {
    "type": "image",
    "url": "https://example.com/image.png",
    "mime_type": "image/png",
}
更多详情请参阅内容块参考

序列化标准内容

默认情况下,标准内容块不会序列化content 属性中。如果您需要在 content 属性中访问标准内容块(例如向客户端发送消息时),可以选择将其序列化到 content 中。
export LC_OUTPUT_VERSION=v1
了解更多:消息标准内容块多模态

简化包

langchain 包命名空间在 v1 中已大幅缩减,专注于代理的核心构建块。精简后的包使发现和使用核心功能变得更加容易。

命名空间

模块可用内容说明
langchain.agentscreate_agent, AgentState核心代理创建功能
langchain.messagesMessage types, content blocks, trim_messageslangchain-core 重新导出
langchain.tools@tool, BaseTool, injection helperslangchain-core 重新导出
langchain.chat_modelsinit_chat_model, BaseChatModel统一的模型初始化
langchain.embeddingsinit_embeddings, Embeddings嵌入模型

langchain-classic

如果您在 langchain 包中使用了以下任何内容,您需要安装 langchain-classic 并更新您的导入:
  • 遗留链(LLMChainConversationChain 等)
  • 检索器(例如 MultiQueryRetriever 或以前 langchain.retrievers 模块中的任何内容)
  • 索引 API
  • Hub 模块(用于以编程方式管理提示)
  • 嵌入模块(例如 CacheBackedEmbeddings 和社区嵌入)
  • langchain-community 重新导出
  • 其他已弃用的功能
# Chains
from langchain_classic.chains import LLMChain

# Retrievers
from langchain_classic.retrievers import ...

# Indexing
from langchain_classic.indexes import ...

# Hub
from langchain_classic import hub
安装方式
uv pip install langchain-classic

破坏性变更

不再支持 Python 3.9

所有 LangChain 包现在需要 Python 3.10 或更高版本。Python 3.9 已于 2025 年 10 月停止生命周期支持

聊天模型的返回类型更新

聊天模型调用的返回类型签名已从 BaseMessage 修正为 AIMessage。实现 bind_tools 的自定义聊天模型应更新其返回签名:
def bind_tools(
        ...
    ) -> Runnable[LanguageModelInput, AIMessage]:

OpenAI Responses API 的默认消息格式

与 Responses API 交互时,langchain-openai 现在默认将响应项存储在消息 content 中。要恢复之前的行为,请将 LC_OUTPUT_VERSION 环境变量设置为 v0,或在实例化 ChatOpenAI 时指定 output_version="v0"
# Enforce previous behavior with output_version flag
model = ChatOpenAI(model="gpt-4.1-mini", output_version="v0")

langchain-anthropic 中的默认 max_tokens

langchain-anthropic 中的 max_tokens 参数现在根据所选模型默认为更高的值,而不是之前默认的 1024。如果您依赖旧的默认值,请显式设置 max_tokens=1024

遗留代码移至 langchain-classic

超出标准接口和代理关注范围的现有功能已移至 langchain-classic 包。有关核心 langchain 包中可用内容以及移至 langchain-classic 的内容的详情,请参阅简化命名空间部分。

移除已弃用的 API

已在 1.0 中标记为弃用且计划移除的方法、函数和其他对象已被删除。请查看以前版本的弃用通知以获取替代 API。

text 属性

消息对象上 .text() 方法的使用应去掉括号,因为它现在是一个属性:
# Property access
text = response.text

# Deprecated method call
text = response.text()
现有用法(即 .text())将继续工作,但现在会发出警告。方法形式将在 v2 中移除。

AIMessage 中移除 example 参数

example 参数已从 AIMessage 对象中移除。我们建议根据需要迁移到使用 additional_kwargs 传递额外元数据。

细微变更

  • AIMessageChunk 对象现在包含一个 chunk_position 属性,值为 'last' 表示流中的最后一个块。这使对流式消息的处理更加清晰。如果该块不是最后一个,chunk_position 将为 None
  • LanguageModelOutputVar 现在类型化为 AIMessage 而不是 BaseMessage
  • 合并消息块(AIMessageChunk.add)的逻辑已更新,对合并块的最终 id 有更复杂的选择处理。它优先使用提供商分配的 ID 而非 LangChain 生成的 ID。
  • 我们现在默认使用 utf-8 编码打开文件。
  • 标准测试现在使用多模态内容块。

归档文档

旧文档已归档以供参考: