支持的模型
使用provider:model 格式指定模型(例如,google_genai:gemini-3.1-pro-preview、openai:gpt-5.4 或 anthropic:claude-sonnet-4-6)。对于有效的提供商字符串,请参阅 init_chat_model 的 model_provider 参数。对于特定于提供商的配置,请参阅 聊天模型集成。
推荐模型
这些模型在 Deep Agents 评估套件 上表现良好,该套件测试基本的 agent 操作。通过这些评估是获得更长、更复杂任务强大性能的必要条件,但不是充分条件。| 提供商 | 模型 |
|---|---|
gemini-3.1-pro-preview, gemini-3-flash-preview | |
| OpenAI | gpt-5.4, gpt-4o, gpt-4.1, o4-mini, gpt-5.2-codex, gpt-4o-mini, o3 |
| Anthropic | claude-opus-4-6, claude-opus-4-5, claude-sonnet-4-6, claude-sonnet-4, claude-sonnet-4-5, claude-haiku-4-5, claude-opus-4-1 |
| 开源权重 | GLM-5, Kimi-K2.5, MiniMax-M2.5, qwen3.5-397B-A17B, devstral-2-123B |
配置模型参数
将模型字符串以provider:model 格式传递给 create_deep_agent,或者传递配置好的模型实例以获得完全控制。在底层,模型字符串通过 init_chat_model 解析。
要配置特定于模型的参数,请使用 init_chat_model 或直接实例化提供商模型类:
可用参数因提供商而异。请参阅 聊天模型集成 页面了解特定于提供商的配置选项。
在运行时选择模型
如果您的应用程序让用户选择模型(例如使用 UI 中的下拉菜单),请使用 middleware 在运行时交换模型而无需重建 agent。 通过 运行时上下文 传递用户的模型选择,然后使用wrap_model_call middleware 通过 @wrap_model_call 装饰器在每次调用时覆盖模型:
了解更多
- LangChain 中的模型:chat model 功能,包括工具调用、结构化输出和多模态
通过 MCP 将 这些文档 连接到 Claude、VSCode 等,以获得实时答案。

