Skip to main content

图(Graphs)

LangGraph 的核心是将智能体工作流建模为图。你可以通过以下三个关键组件来定义智能体的行为:
  1. State:一个共享数据结构,表示应用程序当前的快照。它可以是任意数据类型,但通常使用共享状态模式来定义。
  2. Nodes:编码智能体逻辑的函数。它们以当前状态作为输入,执行某些计算或副作用,并返回更新后的状态。
  3. Edges:根据当前状态决定下一步执行哪个 Node 的函数。它们可以是条件分支或固定转换。
通过组合 NodesEdges,你可以创建复杂的循环工作流,随时间推移演化状态。真正的强大之处在于 LangGraph 如何管理这些状态。 需要强调的是:NodesEdges 只是函数——它们可以包含 LLM,也可以只是普通代码。 简而言之:节点负责执行工作,边决定下一步做什么 LangGraph 的底层图算法使用消息传递来定义通用程序。当一个节点完成操作后,它会沿一条或多条边向其他节点发送消息。接收节点随后执行其函数,将结果消息传递给下一组节点,如此循环。受 Google 的 Pregel 系统启发,程序以离散的”超步(super-steps)“推进。 一个超步可以看作是对图节点的一次完整迭代。并行运行的节点属于同一个超步,而顺序运行的节点则属于不同的超步。图执行开始时,所有节点处于 inactive(非活跃)状态。当节点在任意入边(或”通道”)上收到新消息(状态)时,它就变为 active(活跃)状态。活跃节点运行其函数并返回更新。每个超步结束时,没有收到消息的节点通过将自身标记为 inactive 来投票 halt(停止)。当所有节点都处于 inactive 状态且没有消息在传递时,图执行终止。

StateGraph

StateGraph 类是主要使用的图类。它通过用户定义的 State 对象参数化。

编译你的图

构建图时,你首先定义状态,然后添加节点,最后编译它。什么是编译图,为什么需要编译? 编译是一个相当简单的步骤。它对图的结构进行一些基本检查(例如,没有孤立节点等)。同时也是你可以指定运行时参数(如检查点和断点)的地方。只需调用 .compile 方法即可编译图:
graph = graph_builder.compile(...)
在使用图之前,你必须先编译它。

状态(State)

定义图时,首先要做的就是定义图的 StateState 包含图的模式以及reducer 函数,后者用于指定如何将更新应用到状态。State 的模式将作为图中所有 NodesEdges 的输入模式,可以是 TypedDictPydantic 模型。所有 Nodes 都会向 State 发出更新,这些更新随后使用指定的 reducer 函数应用。

模式(Schema)

指定图模式的主要文档方式是使用 TypedDict。如果你想在状态中提供默认值,请使用 dataclass。如果你想要递归数据验证,我们也支持使用 Pydantic BaseModel 作为图状态(注意 Pydantic 的性能低于 TypedDictdataclass)。 默认情况下,图的输入和输出模式相同。如果你想改变这一点,也可以直接指定显式的输入和输出模式。当你有很多键,其中一些明确用于输入而另一些用于输出时,这非常有用。详见指南
langchain 中更高层级的 create_agent 工厂不支持 Pydantic 状态模式。

多模式

通常,所有图节点使用单一模式进行通信,即它们读写相同的状态通道。但在某些情况下,我们需要更多控制:
  • 内部节点可以传递图输入/输出中不需要的信息。
  • 我们可能还想为图使用不同的输入/输出模式。例如,输出可能只包含一个相关的输出键。
可以让节点在图内部向私有状态通道写入,用于节点间内部通信。我们只需定义一个私有模式 PrivateState 即可。 也可以为图定义显式的输入和输出模式。在这种情况下,我们定义一个包含_所有_与图操作相关键的”内部”模式。同时,我们还定义 inputoutput 模式作为”内部”模式的子集,以约束图的输入和输出。详见此指南 让我们看一个示例:
class InputState(TypedDict):
    user_input: str

class OutputState(TypedDict):
    graph_output: str

class OverallState(TypedDict):
    foo: str
    user_input: str
    graph_output: str

class PrivateState(TypedDict):
    bar: str

def node_1(state: InputState) -> OverallState:
    # Write to OverallState
    return {"foo": state["user_input"] + " name"}

def node_2(state: OverallState) -> PrivateState:
    # Read from OverallState, write to PrivateState
    return {"bar": state["foo"] + " is"}

def node_3(state: PrivateState) -> OutputState:
    # Read from PrivateState, write to OutputState
    return {"graph_output": state["bar"] + " Lance"}

builder = StateGraph(OverallState,input_schema=InputState,output_schema=OutputState)
builder.add_node("node_1", node_1)
builder.add_node("node_2", node_2)
builder.add_node("node_3", node_3)
builder.add_edge(START, "node_1")
builder.add_edge("node_1", "node_2")
builder.add_edge("node_2", "node_3")
builder.add_edge("node_3", END)

graph = builder.compile()
graph.invoke({"user_input":"My"})
# {'graph_output': 'My name is Lance'}
有两点细微但重要的地方需要注意:
  1. 我们将 state: InputState 作为输入模式传入 node_1。但我们写出的是 foo,即 OverallState 中的一个通道。我们怎么能写出一个不在输入模式中的状态通道呢?这是因为节点_可以写入图状态中的任意状态通道_。图状态是初始化时定义的状态通道的联合,包括 OverallState 以及过滤器 InputStateOutputState
  2. 我们用以下方式初始化图:
    StateGraph(
        OverallState,
        input_schema=InputState,
        output_schema=OutputState
    )
    
    那么,我们如何在 node_2 中写入 PrivateState?如果 PrivateState 没有在 StateGraph 初始化中传入,图是如何获取这个模式的? 我们能这样做,是因为_nodes 也可以声明额外的状态通道_,只要状态模式定义存在即可。在这种情况下,PrivateState 模式已定义,因此我们可以在图中将 bar 添加为新的状态通道并向其写入。

Reducers

Reducers 是理解节点更新如何应用到 State 的关键。State 中的每个键都有其独立的 reducer 函数。如果没有显式指定 reducer 函数,则假定对该键的所有更新都应覆盖它。有几种不同类型的 reducer,从默认类型开始:

默认 reducer

以下两个示例展示了如何使用默认 reducer:
Example A
from typing_extensions import TypedDict

class State(TypedDict):
    foo: int
    bar: list[str]
在此示例中,没有为任何键指定 reducer 函数。假设图的输入为: {"foo": 1, "bar": ["hi"]}。假设第一个 Node 返回 {"foo": 2},这将被视为状态更新。注意,Node 不需要返回完整的 State 模式——只需返回更新即可。应用此更新后,State 将变为 {"foo": 2, "bar": ["hi"]}。如果第二个节点返回 {"bar": ["bye"]},则 State 将变为 {"foo": 2, "bar": ["bye"]}
Example B
from typing import Annotated
from typing_extensions import TypedDict
from operator import add

class State(TypedDict):
    foo: int
    bar: Annotated[list[str], add]
在此示例中,我们使用 Annotated 类型为第二个键(bar)指定了一个 reducer 函数(operator.add)。注意,第一个键保持不变。假设图的输入为 {"foo": 1, "bar": ["hi"]}。假设第一个 Node 返回 {"foo": 2},这将被视为状态更新。注意,Node 不需要返回完整的 State 模式——只需返回更新即可。应用此更新后,State 将变为 {"foo": 2, "bar": ["hi"]}。如果第二个节点返回 {"bar": ["bye"]},则 State 将变为 {"foo": 2, "bar": ["hi", "bye"]}。注意这里 bar 键通过将两个列表合并来更新。

Overwrite

在某些情况下,你可能想绕过 reducer 并直接覆盖状态值。LangGraph 为此提供了 Overwrite 类型。在此了解如何使用 Overwrite

在图状态中处理消息

为什么使用消息?

大多数现代 LLM 提供商都有一个聊天模型接口,接受消息列表作为输入。LangChain 的聊天模型接口特别接受消息对象列表作为输入。这些消息有多种形式,例如 HumanMessage(用户输入)或 AIMessage(LLM 响应)。 要了解更多关于消息对象的内容,请参阅消息概念指南

在图中使用消息

在许多情况下,将之前的对话历史作为消息列表存储在图状态中非常有用。为此,我们可以向图状态添加一个键(通道)来存储 Message 对象列表,并使用 reducer 函数注解它(参见下面示例中的 messages 键)。reducer 函数对于告知图如何在每次状态更新时更新状态中的 Message 对象列表至关重要(例如,当节点发送更新时)。如果不指定 reducer,每次状态更新都会用最新提供的值覆盖消息列表。如果你只想将消息追加到现有列表中,可以使用 operator.add 作为 reducer。 然而,你可能还想手动更新图状态中的消息(例如,人在回路中)。如果使用 operator.add,你向图发送的手动状态更新将被追加到现有消息列表,而不是更新现有消息。为避免这种情况,你需要一个能跟踪消息 ID 并在消息更新时覆盖现有消息的 reducer。为此,你可以使用预构建的 add_messages 函数。对于全新的消息,它会简单地追加到现有列表,但也能正确处理现有消息的更新。

序列化

除了跟踪消息 ID 外,add_messages 函数还会在 messages 通道收到状态更新时,尝试将消息反序列化为 LangChain Message 对象。 有关 LangChain 序列化/反序列化的更多信息,请参阅此处。这允许以以下格式发送图输入/状态更新:
# this is supported
{"messages": [HumanMessage(content="message")]}

# and this is also supported
{"messages": [{"type": "human", "content": "message"}]}
由于使用 add_messages 时状态更新总是被反序列化为 LangChain Messages,你应该使用点表示法访问消息属性,如 state["messages"][-1].content 以下是使用 add_messages 作为 reducer 函数的图示例。
from langchain.messages import AnyMessage
from langgraph.graph.message import add_messages
from typing import Annotated
from typing_extensions import TypedDict

class GraphState(TypedDict):
    messages: Annotated[list[AnyMessage], add_messages]

MessagesState

由于在状态中保存消息列表非常常见,LangGraph 提供了一个预构建的状态 MessagesState,使消息使用更加便捷。MessagesState 定义了一个单一的 messages 键,它是 AnyMessage 对象列表,并使用 add_messages reducer。通常,需要跟踪的状态不仅仅是消息,所以我们常见的做法是对该状态进行子类化并添加更多字段,例如:
from langgraph.graph import MessagesState

class State(MessagesState):
    documents: list[str]

节点(Nodes)

在 LangGraph 中,节点是接受以下参数的 Python 函数(同步或异步):
  1. state – 图的状态
  2. config – 一个 RunnableConfig 对象,包含配置信息(如 thread_id)和追踪信息(如 tags
  3. runtime – 一个 Runtime 对象,包含运行时 context 和其他信息(如 storestream_writer
NetworkX 类似,你可以使用 add_node 方法将这些节点添加到图中:
from dataclasses import dataclass
from typing_extensions import TypedDict

from langchain_core.runnables import RunnableConfig
from langgraph.graph import StateGraph
from langgraph.runtime import Runtime

class State(TypedDict):
    input: str
    results: str

@dataclass
class Context:
    user_id: str

builder = StateGraph(State)

def plain_node(state: State):
    return state

def node_with_runtime(state: State, runtime: Runtime[Context]):
    print("In node: ", runtime.context.user_id)
    return {"results": f"Hello, {state['input']}!"}

def node_with_config(state: State, config: RunnableConfig):
    print("In node with thread_id: ", config["configurable"]["thread_id"])
    return {"results": f"Hello, {state['input']}!"}


builder.add_node("plain_node", plain_node)
builder.add_node("node_with_runtime", node_with_runtime)
builder.add_node("node_with_config", node_with_config)
...
在底层,函数被转换为 RunnableLambda,为你的函数添加批处理和异步支持,以及原生追踪和调试 如果你向图中添加节点时未指定名称,它将获得一个与函数名相同的默认名称。
builder.add_node(my_node)
# You can then create edges to/from this node by referencing it as `"my_node"`

START 节点

START 节点是一个特殊节点,表示将用户输入发送到图的节点。引用此节点的主要目的是确定应首先调用哪些节点。
from langgraph.graph import START

graph.add_edge(START, "node_a")

END 节点

END 节点是一个特殊节点,表示终止节点。当你想表示哪些边在完成后没有后续操作时,会引用此节点。
from langgraph.graph import END

graph.add_edge("node_a", END)

节点缓存

LangGraph 支持基于节点输入对任务/节点进行缓存。要使用缓存:
  • 在编译图时指定缓存(或指定入口点)
  • 为节点指定缓存策略。每个缓存策略支持:
    • key_func:用于根据节点输入生成缓存键,默认使用 pickle 对输入进行 hash
    • ttl:缓存的生存时间(秒)。如果未指定,缓存永不过期。
示例:
import time
from typing_extensions import TypedDict
from langgraph.graph import StateGraph
from langgraph.cache.memory import InMemoryCache
from langgraph.types import CachePolicy


class State(TypedDict):
    x: int
    result: int


builder = StateGraph(State)


def expensive_node(state: State) -> dict[str, int]:
    # expensive computation
    time.sleep(2)
    return {"result": state["x"] * 2}


builder.add_node("expensive_node", expensive_node, cache_policy=CachePolicy(ttl=3))
builder.set_entry_point("expensive_node")
builder.set_finish_point("expensive_node")

graph = builder.compile(cache=InMemoryCache())

print(graph.invoke({"x": 5}, stream_mode='updates'))
# [{'expensive_node': {'result': 10}}]
print(graph.invoke({"x": 5}, stream_mode='updates'))
# [{'expensive_node': {'result': 10}, '__metadata__': {'cached': True}}]
  1. 第一次运行需要两秒(由于模拟的耗时计算)。
  2. 第二次运行利用缓存,快速返回结果。

边(Edges)

边定义了逻辑的路由方式以及图如何决定停止。这是你的智能体工作方式以及不同节点如何相互通信的重要组成部分。有几种关键类型的边:
  • 普通边:直接从一个节点转到下一个节点。
  • 条件边:调用函数来确定下一步转到哪个节点。
  • 入口点:用户输入到达时首先调用哪个节点。
  • 条件入口点:调用函数来确定用户输入到达时首先调用哪个节点。
一个节点可以有多条出边。如果一个节点有多条出边,所有目标节点都将作为下一个超步的一部分并行执行。

普通边

如果你始终想从节点 A 转到节点 B,可以直接使用 add_edge 方法。
graph.add_edge("node_a", "node_b")

条件边

如果你想可选地路由到一条或多条边(或可选地终止),可以使用 add_conditional_edges 方法。此方法接受节点名称和在该节点执行后调用的”路由函数”:
graph.add_conditional_edges("node_a", routing_function)
与节点类似,routing_function 接受图的当前 state 并返回一个值。 默认情况下,routing_function 的返回值用作下一步发送状态的节点名称(或节点名称列表)。所有这些节点将作为下一个超步的一部分并行运行。 你也可以选择提供一个字典,将 routing_function 的输出映射到下一个节点的名称。
graph.add_conditional_edges("node_a", routing_function, {True: "node_b", False: "node_c"})
如果你想在单个函数中同时进行状态更新和路由,请使用 Command 而不是条件边。

入口点

入口点是图启动时首先运行的节点。你可以使用 add_edge 方法从虚拟 START 节点连接到第一个要执行的节点,以指定进入图的位置。
from langgraph.graph import START

graph.add_edge(START, "node_a")

条件入口点

条件入口点允许你根据自定义逻辑从不同节点开始。你可以使用从虚拟 START 节点调用 add_conditional_edges 来实现这一点。
from langgraph.graph import START

graph.add_conditional_edges(START, routing_function)
你也可以选择提供一个字典,将 routing_function 的输出映射到下一个节点的名称。
graph.add_conditional_edges(START, routing_function, {True: "node_b", False: "node_c"})

Send

默认情况下,NodesEdges 提前定义并操作相同的共享状态。然而,在某些情况下,确切的边可能无法提前确定,并且/或者你可能希望同时存在不同版本的 State。一个常见的例子是map-reduce 设计模式。在此设计模式中,第一个节点可能生成一个对象列表,你可能想将其他节点应用于所有这些对象。对象的数量可能无法提前确定(这意味着边的数量可能未知),且下游 Node 的输入 State 应该不同(每个生成的对象对应一个)。 为了支持此设计模式,LangGraph 支持从条件边返回 Send 对象。Send 接受两个参数:第一个是节点名称,第二个是传递给该节点的状态。
def continue_to_jokes(state: OverallState):
    return [Send("generate_joke", {"subject": s}) for s in state['subjects']]

graph.add_conditional_edges("node_a", continue_to_jokes)

Command

Command 是控制图执行的通用原语。它接受四个参数:
  • update:应用状态更新(类似于从节点返回更新)。
  • goto:导航到特定节点(类似于条件边)。
  • graph:从子图导航时以父图为目标。
  • resume:提供一个值以在中断后恢复执行。
Command 在三种情境中使用:

从节点返回

updategoto

从节点函数返回 Command,在单步中更新状态并路由到下一个节点:
def my_node(state: State) -> Command[Literal["my_other_node"]]:
    return Command(
        # state update
        update={"foo": "bar"},
        # control flow
        goto="my_other_node"
    )
使用 Command,你还可以实现动态控制流行为(与条件边相同):
def my_node(state: State) -> Command[Literal["my_other_node"]]:
    if state["foo"] == "bar":
        return Command(update={"foo": "baz"}, goto="my_other_node")
当你需要同时更新状态路由到不同节点时,请使用 Command。如果只需要路由而不更新状态,请改用条件边
在节点函数中返回 Command 时,必须添加包含节点路由目标节点名称列表的返回类型注解,例如 Command[Literal["my_other_node"]]。这对于图渲染是必需的,并且告知 LangGraph my_node 可以导航到 my_other_node
Command 只添加动态边——使用 add_edge / addEdge 定义的静态边仍然会执行。例如,如果 node_a 返回 Command(goto="my_other_node") 且你还有 graph.add_edge("node_a", "node_b"),则 node_bmy_other_node 都会运行。
查看此操作指南,了解如何使用 Command 的端到端示例。

graph

如果你在使用子图,可以通过在 Command 中指定 graph=Command.PARENT,从子图内的节点导航到父图中的不同节点:
def my_node(state: State) -> Command[Literal["other_subgraph"]]:
    return Command(
        update={"foo": "bar"},
        goto="other_subgraph",  # where `other_subgraph` is a node in the parent graph
        graph=Command.PARENT
    )
graph 设置为 Command.PARENT 将导航到最近的父图。当你从子图节点向父图节点发送更新,且该键在父图和子图状态模式中共享时,你必须为父图状态中你正在更新的键定义 reducer。参见此示例
这在实现多智能体移交时特别有用。查看此指南了解详情。

invoke/stream 的输入

Command(resume=...)唯一打算作为 invoke()/stream() 输入的 Command 模式。不要使用 Command(update=...) 作为输入来继续多轮对话——因为将任何 Command 作为输入传递会从最新检查点(即上次运行的步骤,而非 __start__)恢复,如果图已经完成,它将显得卡住了。要在现有线程上继续对话,请传入普通输入字典:
# WRONG — graph resumes from the latest checkpoint
# (last step that ran), appears stuck
graph.invoke(Command(update={
    "messages": [{"role": "user", "content": "follow up"}]
}), config)

# CORRECT — plain dict restarts from __start__
graph.invoke( {
    "messages": [{"role": "user", "content": "follow up"}]
}, config)

resume

使用 Command(resume=...) 提供一个值,并在中断后恢复图执行。传递给 resume 的值将成为暂停节点内 interrupt() 调用的返回值:
from langgraph.types import Command, interrupt

def human_review(state: State):
    # Pauses the graph and waits for a value
    answer = interrupt("Do you approve?")
    return {"messages": [{"role": "user", "content": answer}]}

# First invocation — hits the interrupt and pauses
result = graph.invoke({"messages": [...]}, config)

# Resume with a value — the interrupt() call returns "yes"
result = graph.invoke(Command(resume="yes"), config)
查看中断概念指南,了解中断模式的完整详情,包括多次中断和验证循环。

从工具返回

你可以从工具返回 Command,以更新图状态和控制流。使用 update 修改状态(例如,保存对话中查找的客户信息),使用 goto 在工具完成后路由到特定节点。
在工具内部使用时,goto 添加动态边——已在调用该工具的节点上定义的任何静态边仍将执行。
详见此指南

图迁移

LangGraph 可以轻松处理图定义(节点、边和状态)的迁移,即使使用检查点来跟踪状态也不例外。
  • 对于图末尾的线程(即未中断),你可以更改图的整个拓扑(即所有节点和边,包括删除、添加、重命名等)
  • 对于当前已中断的线程,我们支持除重命名/删除节点以外的所有拓扑更改(因为该线程可能即将进入一个不再存在的节点)——如果这是一个阻碍,请联系我们,我们可以优先提供解决方案。
  • 对于修改状态,我们对添加和删除键具有完全的向前和向后兼容性
  • 重命名的状态键在现有线程中会丢失其保存的状态
  • 类型以不兼容方式更改的状态键,在具有更改前状态的线程中可能会导致问题——如果这是一个阻碍,请联系我们,我们可以优先提供解决方案。

运行时上下文

创建图时,你可以为传递给节点的运行时上下文指定 context_schema。这对于向节点传递不属于图状态的信息非常有用。例如,你可能想传递模型名称或数据库连接等依赖项。
@dataclass
class ContextSchema:
    llm_provider: str = "openai"

graph = StateGraph(State, context_schema=ContextSchema)
然后,你可以使用 invoke 方法的 context 参数将此上下文传递到图中。
graph.invoke(inputs, context={"llm_provider": "anthropic"})
然后,你可以在节点或条件边内部访问并使用此上下文:
from langgraph.runtime import Runtime

def node_a(state: State, runtime: Runtime[ContextSchema]):
    llm = get_llm(runtime.context.llm_provider)
    # ...
查看此指南,了解配置的完整说明。

递归限制

递归限制设置了图在单次执行中可以执行的最大超步数。一旦达到限制,LangGraph 将引发 GraphRecursionError。从 1.0.6 版本开始,默认递归限制设置为 1000 步。递归限制可以在运行时对任何图设置,通过 config 字典传递给 invoke/stream。重要的是,recursion_limit 是一个独立的 config 键,不应像其他用户定义的配置一样放在 configurable 键内。参见以下示例:
graph.invoke(inputs, config={"recursion_limit": 5}, context={"llm": "anthropic"})
阅读此操作指南,了解更多关于递归限制工作原理的信息。

访问和处理递归计数器

当前步骤计数器可通过任意节点内的 config["metadata"]["langgraph_step"] 访问,允许在达到递归限制之前主动处理递归。这使你能够在图逻辑中实现优雅降级策略。

工作原理

步骤计数器存储在 config["metadata"]["langgraph_step"] 中。递归限制检查遵循以下逻辑:step > stop,其中 stop = step + recursion_limit + 1。当限制超出时,LangGraph 引发 GraphRecursionError

访问当前步骤计数器

你可以在任意节点内访问当前步骤计数器以监控执行进度。
from langchain_core.runnables import RunnableConfig
from langgraph.graph import StateGraph

def my_node(state: dict, config: RunnableConfig) -> dict:
    current_step = config["metadata"]["langgraph_step"]
    print(f"Currently on step: {current_step}")
    return state

主动递归处理

LangGraph 提供了一个 RemainingSteps 托管值,用于跟踪在达到递归限制之前剩余的步骤数。这允许在图内实现优雅降级。
from typing import Annotated, Literal
from langgraph.graph import StateGraph, START, END
from langgraph.managed import RemainingSteps

class State(TypedDict):
    messages: Annotated[list, lambda x, y: x + y]
    remaining_steps: RemainingSteps  # Managed value - tracks steps until limit

def reasoning_node(state: State) -> dict:
    # RemainingSteps is automatically populated by LangGraph
    remaining = state["remaining_steps"]

    # Check if we're running low on steps
    if remaining <= 2:
        return {"messages": ["Approaching limit, wrapping up..."]}

    # Normal processing
    return {"messages": ["thinking..."]}

def route_decision(state: State) -> Literal["reasoning_node", "fallback_node"]:
    """Route based on remaining steps"""
    if state["remaining_steps"] <= 2:
        return "fallback_node"
    return "reasoning_node"

def fallback_node(state: State) -> dict:
    """Handle cases where recursion limit is approaching"""
    return {"messages": ["Reached complexity limit, providing best effort answer"]}

# Build graph
builder = StateGraph(State)
builder.add_node("reasoning_node", reasoning_node)
builder.add_node("fallback_node", fallback_node)
builder.add_edge(START, "reasoning_node")
builder.add_conditional_edges("reasoning_node", route_decision)
builder.add_edge("fallback_node", END)

graph = builder.compile()

# RemainingSteps works with any recursion_limit
result = graph.invoke({"messages": []}, {"recursion_limit": 10})

主动与被动方式

处理递归限制有两种主要方式:主动(在图内监控)和被动(在外部捕获错误)。
from typing import Annotated, Literal, TypedDict
from langgraph.graph import StateGraph, START, END
from langgraph.managed import RemainingSteps
from langgraph.errors import GraphRecursionError

class State(TypedDict):
    messages: Annotated[list, lambda x, y: x + y]
    remaining_steps: RemainingSteps

# Proactive Approach (recommended) - using RemainingSteps
def agent_with_monitoring(state: State) -> dict:
    """Proactively monitor and handle recursion within the graph"""
    remaining = state["remaining_steps"]

    # Early detection - route to internal handling
    if remaining <= 2:
        return {
            "messages": ["Approaching limit, returning partial result"]
        }

    # Normal processing
    return {"messages": [f"Processing... ({remaining} steps remaining)"]}

def route_decision(state: State) -> Literal["agent", END]:
    if state["remaining_steps"] <= 2:
        return END
    return "agent"

# Build graph
builder = StateGraph(State)
builder.add_node("agent", agent_with_monitoring)
builder.add_edge(START, "agent")
builder.add_conditional_edges("agent", route_decision)
graph = builder.compile()

# Proactive: Graph completes gracefully
result = graph.invoke({"messages": []}, {"recursion_limit": 10})

# Reactive Approach (fallback) - catching error externally
try:
    result = graph.invoke({"messages": []}, {"recursion_limit": 10})
except GraphRecursionError as e:
    # Handle externally after graph execution fails
    result = {"messages": ["Fallback: recursion limit exceeded"]}
这两种方式的主要区别如下:
方式检测时机处理方式控制流
主动(使用 RemainingSteps达到限制之前在图内通过条件路由图继续运行到完成节点
被动(捕获 GraphRecursionError超出限制之后在图外部通过 try/catch图执行终止
主动方式优势:
  • 在图内优雅降级
  • 可在检查点中保存中间状态
  • 通过部分结果提供更好的用户体验
  • 图正常完成(无异常)
被动方式优势:
  • 实现更简单
  • 无需修改图逻辑
  • 集中式错误处理

其他可用元数据

langgraph_step 外,以下元数据也可在 config["metadata"] 中获取:
def inspect_metadata(state: dict, config: RunnableConfig) -> dict:
    metadata = config["metadata"]

    print(f"Step: {metadata['langgraph_step']}")
    print(f"Node: {metadata['langgraph_node']}")
    print(f"Triggers: {metadata['langgraph_triggers']}")
    print(f"Path: {metadata['langgraph_path']}")
    print(f"Checkpoint NS: {metadata['langgraph_checkpoint_ns']}")

    return state

可视化

能够可视化图通常很有帮助,尤其是随着图变得越来越复杂。LangGraph 内置了多种可视化图的方式。详见此操作指南

可观测性与追踪

要追踪、调试和评估你的智能体,请使用 LangSmith

了解更多