快速开始
CLI 会自动与以下模型提供商集成:除了安装相关提供商包外,无需额外配置。-
安装提供商包
每个模型提供商都需要安装其对应的 LangChain 集成包。这些包在安装 CLI 时作为可选附加项提供,这是有意为之,以保持应用程序轻量:
-
设置凭证
将 API 密钥存储在
~/.deepagents/.env中,以便在所有项目中可用,或者在 shell 中导出它们:一些提供商使用其他凭证(例如,Vertex AI 使用GOOGLE_CLOUD_PROJECT加上 ADC)。请参阅下表了解每个提供商所需的变量。您也可以使用DEEPAGENTS_CLI_前缀将凭证限定于 CLI。
提供商参考
Deep Agents CLI 是用 Python 构建的,请使用 Python 提供商参考文档。模型路由器和代理
像 OpenRouter 和 LiteLLM 这样的模型路由器通过单个端点提供对来自多个提供商的模型的访问。 使用这些服务的专用集成包:| 路由器 | 包 |
|---|---|
| OpenRouter | langchain-openrouter |
切换模型
要在 CLI 中切换模型,可以:-
使用交互式模型切换器,使用
/model命令。这将显示从每个已安装的 LangChain 提供商包的模型配置文件中获取的可用模型。并非所有模型都会显示在此处。如果您的模型缺失,请直接传递模型名称(例如/model gpt-5.4)。有关详细信息,请参见哪些模型会出现在切换器中。 -
直接指定模型名称作为参数,例如
/model gpt-5.4。您可以使用所选提供商支持的任何模型,无论它是否出现在选项 1 的列表中。模型名称将传递给 API 请求。 -
在启动时通过
--model指定模型,例如:
哪些模型会出现在切换器中
/model 选择器根据已安装的提供商包动态构建其列表。展开下方了解完整标准和故障排除。
切换器如何构建其模型列表
切换器如何构建其模型列表
交互式
/model 选择器动态构建其列表——它不是硬编码到 CLI 中的固定列表。当所有以下条件都满足时,模型会出现在切换器中:-
提供商包已安装。 每个提供商(例如
langchain-anthropic、langchain-openai)必须与deepagents-cli一起安装——可以作为安装附加项(例如uv tool install 'deepagents-cli[ollama]'),或者稍后使用uv tool install deepagents-cli --with <package>添加。如果缺少包,其整个提供商部分将从切换器中消失。 -
模型具有启用
tool_calling的配置文件。 CLI 需要工具调用支持,因此配置文件中没有tool_calling: true的模型将被排除。这是模型从列表中缺失的最常见原因。对于不捆绑配置文件的提供商(参见提供商参考表),您可以在config.toml中定义一个:这对于模型出现在切换器中并非严格必需——将其添加到models列表也可以,并且更简单。当您希望 CLI 了解模型的上下文窗口和功能(例如自动摘要)时,配置文件很有用。有关所有可覆盖字段,请参见配置文件覆盖。 -
模型接受并生成文本。 配置文件中明确将
text_inputs或text_outputs设置为false的模型(例如嵌入或图像生成模型)将被排除。
config.toml 中定义在 [models.providers.<name>].models 下的模型会绕过配置文件过滤器——无论配置文件元数据如何,它们总是出现在切换器中。这是添加缺失模型的推荐方式。缺失模型故障排除
| 症状 | 可能原因 | 修复 |
|---|---|---|
| 整个提供商从切换器中缺失 | 未安装提供商包 | 安装包(例如 uv tool install deepagents-cli --with langchain-groq) |
| 提供商显示但特定模型缺失 | 模型配置文件有 tool_calling: false 或不存在配置文件 | 将模型添加到 config.toml 中的 [models.providers.<name>].models,或直接使用 /model <provider>:<model> |
| 提供商显示 ⚠ “缺少凭证” | 未设置 API 密钥环境变量 | 从提供商参考表设置凭证环境变量 |
| 提供商显示 ? “凭证未知” | 提供商使用 CLI 无法验证的非标准身份验证 | 凭证可能仍然有效——尝试切换到该模型。如果身份验证失败,请检查提供商的文档 |
设置默认模型
您可以设置一个持久的默认模型,该模型将用于所有未来的 CLI 启动:-
通过模型选择器: 打开
/model,导航到所需模型,然后按Ctrl+S将其固定为默认值。再次按Ctrl+S可清除当前默认值。 -
通过命令:
/model --default provider:model(例如,/model --default anthropic:claude-opus-4-6) -
通过配置文件: 在
~/.deepagents/config.toml中设置[models].default(参见配置)。 -
从 shell:
-
从 shell:
-
通过命令:
/model --default --clear -
通过模型选择器: 在当前固定的默认模型上按
Ctrl+S。
模型解析顺序
当 CLI 启动时,它按以下顺序解析要使用的模型:--model标志在提供时总是优先。[models].default在~/.deepagents/config.toml中——用户的有意长期偏好。[models].recent在~/.deepagents/config.toml中——最后通过/model切换到的模型。自动写入;从不覆盖[models].default。- 环境自动检测:回退到第一个可用的启动凭证,按顺序检查:
OPENAI_API_KEY、ANTHROPIC_API_KEY、GOOGLE_API_KEY、GOOGLE_CLOUD_PROJECT(Vertex AI)。
--model、/model 和保存的默认值([models].default / [models].recent)使用。
高级配置
有关提供商参数、配置文件覆盖、自定义基础 URL、兼容 API、任意提供商和生命周期钩子的详细配置,请参见配置。通过 MCP 将这些文档连接到 Claude、VSCode 等,以获取实时答案。

