快速开始
CLI 自动与以下模型提供者集成:无需额外配置,只需安装相应的提供程序包即可。-
安装提供程序包
每个模型提供者都需要安装其对应的 LangChain 集成包。这些包在安装 CLI 时作为可选附加项提供,故意这样做以保持应用程序轻量级:
-
设置凭据
将 API 密钥存储在
~/.deepagents/.env中,以便所有项目都能访问,或者在 shell 中导出它们:一些提供者使用其他凭据(例如,Vertex AI 使用GOOGLE_CLOUD_PROJECT加上 ADC)。参见下表中每个提供者的所需变量。您也可以通过DEEPAGENTS_CLI_前缀将凭据限制在 CLI 中查看 DeepAgents CLI_ 前缀。
提供者参考
使用未在此处列出的提供者?参见 任意提供者:任何与 LangChain 兼容的提供者都可以在 CLI 中使用,只需额外设置即可。| 提供者 | 包 | 凭证环境变量 | 模型配置文件 |
|---|---|---|---|
| OpenAI | langchain-openai | OPENAI_API_KEY | ✅ |
| Azure OpenAI | langchain-openai | AZURE_OPENAI_API_KEY | ✅ |
| Anthropic | langchain-anthropic | ANTHROPIC_API_KEY | ✅ |
| Google Gemini API | langchain-google-genai | GOOGLE_API_KEY | ✅ |
| Google Vertex AI | langchain-google-genai | GOOGLE_CLOUD_PROJECT | ✅ |
| Baseten | langchain-baseten | BASETEN_API_KEY | ✅ |
| AWS Bedrock | langchain-aws | AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY | ✅ |
| AWS Bedrock Converse | langchain-aws | AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY | ✅ |
| Hugging Face | langchain-huggingface | HUGGINGFACEHUB_API_TOKEN | ✅ |
| Ollama | langchain-ollama | 可选 | ❌ |
| Groq | langchain-groq | GROQ_API_KEY | ✅ |
| Cohere | langchain-cohere | COHERE_API_KEY | ❌ |
| Fireworks | langchain-fireworks | FIREWORKS_API_KEY | ✅ |
| Together | langchain-together | TOGETHER_API_KEY | ❌ |
| Mistral AI | langchain-mistralai | MISTRAL_API_KEY | ✅ |
| DeepSeek | langchain-deepseek | DEEPSEEK_API_KEY | ✅ |
| IBM (watsonx.ai) | langchain-ibm | WATSONX_APIKEY | ❌ |
| Nvidia | langchain-nvidia-ai-endpoints | NVIDIA_API_KEY | ✅ |
| xAI | langchain-xai | XAI_API_KEY | ✅ |
| Perplexity | langchain-perplexity | PPLX_API_KEY | ✅ |
| OpenRouter | langchain-openrouter | OPENROUTER_API_KEY | ✅ |
| LiteLLM | langchain-litellm | 按提供者(参见 文档) | ❌ |
模型路由器和代理
像 OpenRouter 和 LiteLLM 这样的模型路由器通过单一端点提供了来自多个提供者的模型访问。 使用这些服务的专用集成包:| 路由器 | 包 | 配置 |
|---|---|---|
| OpenRouter | langchain-openrouter | openrouter:<model>(内置,参见 提供者参考) |
| LiteLLM | langchain-litellm | litellm:<model>(内置,参见 提供者参考) |
切换模型
要在 CLI 中切换模型,可以:-
使用交互式模型切换器 使用
/model命令。这会显示每个安装的 LangChain 提供者包中的 模型配置文件 源自的可用模型。并非所有模型都会出现在这里。如果缺少,请直接传递模型名称(例如/model gpt-5.4)。有关详细信息,请参见 哪些模型出现在切换器中。 -
直接指定一个模型名称 作为参数,例如
/model gpt-5.4。您可以使用任何由所选提供者支持的模型,而无需考虑选项1中的列表。模型名称将传递给 API 请求。 -
在启动时指定模型 使用
--model参数,例如
哪些模型出现在切换器中
/model 选择器动态地从安装的提供者包构建其列表。展开以查看完整标准和故障排除。
切换器如何构建其模型列表
切换器如何构建其模型列表
交互式
/model 选择器会动态构建其列表——它不是 CLI 中硬编码的列表。一个模型出现在切换器中,当 所有 下列条件都满足时:-
提供者包已安装。 每个提供者(例如
langchain-anthropic,langchain-openai)必须与deepagents-cli一起安装——可以作为 快速启动 中的安装附加项(例如uv tool install 'deepagents-cli[ollama]'),或稍后使用uv tool install deepagents-cli --with <package>添加。如果缺少包,切换器中将没有其整个提供者部分。 -
模型具有启用
tool_calling的配置文件。 CLI 需要工具调用支持,因此配置文件中未包含tool_calling: true的模型会被排除在外。这是导致模型从列表中缺失的最常见原因。对于没有捆绑配置文件的提供者(参见 提供者参考 表),您可以在config.toml中定义一个:这并不是模型必须出现在切换器中的严格要求——将其添加到models列表中(参见 配置)也可以,且更简单。当您希望 CLI 知道模型的上下文窗口和功能以进行自动摘要等特性时,配置文件是有用的。有关所有可覆盖字段,请参见 配置覆盖。 -
模型接受并产生文本。 配置文件中明确设置
text_inputs或text_outputs为false的模型(例如嵌入或图像生成模型)将被排除在外。
config.toml 中定义的模型,位于 [models.providers.<name>].models 下,会绕过配置文件过滤。它们无论配置文件元数据如何都会出现在切换器中。这是推荐的方法来添加列表中缺少的模型。故障排除缺失的模型
| 症状 | 可能的原因 | 解决方案 |
|---|---|---|
| 提供者整个缺失于切换器中 | 提供者包未安装 | 安装该包(例如 uv tool install deepagents-cli --with langchain-groq) |
| 提供者显示但特定模型缺失 | 模型配置文件具有 tool_calling: false 或不存在配置文件 | 将模型添加到 [models.providers.<name>].models 中的 config.toml,或直接使用 /model <provider>:<model> |
| 提供者显示 ⚠ “缺少凭据” | API 密钥环境变量未设置 | 从 提供者参考 表中设置凭证环境变量 |
| 提供者显示 ? “凭据未知” | 提供者使用 CLI 无法验证的非标准身份验证方式 | 凭证可能仍然有效——尝试切换到该模型。如果认证失败,请检查提供者的文档 |
设置默认模型
您可以设置一个持久化的默认模型,用于所有未来的 CLI 启动:-
通过模型选择器: 打开
/model,导航至所需的模型并按Ctrl+S以将其设为默认值。再次按Ctrl+S可清除当前默认值。 -
通过命令:
/model --default provider:model(例如/model --default anthropic:claude-opus-4-6) -
通过配置文件: 在
~/.deepagents/config.toml中设置[models].default(参见 配置) -
从 shell:
-
从 shell:
-
通过命令:
/model --default --clear -
通过模型选择器: 在当前已固定默认模型上按
Ctrl+S。
模型解析顺序
当 CLI 启动时,它将按照以下顺序解析要使用的模型:--model标志 当提供时总是获胜。[models].default在~/.deepagents/config.toml中——用户的长期偏好。[models].recent在~/.deepagents/config.toml中——通过/model最后切换到的模型。自动写入,从不覆盖[models].default。- 环境自动检测: 落回第一个可用的启动凭据,按顺序检查:
OPENAI_API_KEY,ANTHROPIC_API_KEY,GOOGLE_API_KEY,GOOGLE_CLOUD_PROJECT(Vertex AI)。
--model、/model 和保存的默认值 ([models].default / [models].recent) 使用。
高级配置
有关详细配置提供者参数、配置文件覆盖、自定义基础 URL、兼容 API、任意提供者和生命周期挂钩的信息,请参见 配置。通过 MCP 将这些文档连接到 Claude、VSCode 等,以获得实时答案:连接这些文档。

