Skip to main content
单元测试独立地测试代理中细小、确定性的部分。通过用内存中的假模型(即 fixture)替换真实 LLM,您可以编写确切的响应(文本、工具调用和错误),从而使测试快速、免费且可重复,无需 API 密钥。

模拟聊天模型

LangChain 提供了 GenericFakeChatModel 来模拟文本响应。它接受一个响应迭代器(AIMessage 对象或字符串),并在每次调用时返回一个响应。它支持常规和流式使用。
from langchain_core.language_models.fake_chat_models import GenericFakeChatModel

model = GenericFakeChatModel(messages=iter([
    AIMessage(content="", tool_calls=[ToolCall(name="foo", args={"bar": "baz"}, id="call_1")]),
    "bar"
]))

model.invoke("hello")
# AIMessage(content='', ..., tool_calls=[{'name': 'foo', 'args': {'bar': 'baz'}, 'id': 'call_1', 'type': 'tool_call'}])
如果我们再次调用模型,它将返回迭代器中的下一个项:
model.invoke("hello, again!")
# AIMessage(content='bar', ...)

InMemorySaver 检查点器

为了在测试期间启用持久化,您可以使用 InMemorySaver 检查点器。这允许您模拟多个回合以测试状态相关的行为:
from langgraph.checkpoint.memory import InMemorySaver

agent = create_agent(
    model,
    tools=[],
    checkpointer=InMemorySaver()
)

# 第一次调用
agent.invoke(
    {"messages": [HumanMessage(content="I live in Sydney, Australia")]},
    config={"configurable": {"thread_id": "session-1"}}
)

# 第二次调用:第一条消息被持久化(悉尼位置),因此模型返回 GMT+10 时间
agent.invoke(
    {"messages": [HumanMessage(content="What's my local time?")]},
    config={"configurable": {"thread_id": "session-1"}}
)

后续步骤

了解如何使用真实模型提供商 API 测试您的代理,请参阅集成测试