Skip to main content
Deep Agents CLI 支持任何 与 LangChain 兼容的聊天模型提供者,解锁几乎任何支持工具调用的 LLM 的使用。任何暴露 OpenAI 兼容或 Anthropic 兼容 API 的服务都可以开箱即用地工作——参见 兼容 API

快速开始

CLI 自动与以下模型提供者集成:无需额外配置,只需安装相应的提供程序包即可。
  1. 安装提供程序包 每个模型提供者都需要安装其对应的 LangChain 集成包。这些包在安装 CLI 时作为可选附加项提供,故意这样做以保持应用程序轻量级:
    # 快速安装所选择的提供者
    # OpenAI、Anthropic 和 Gemini 默认包含
    DEEPAGENTS_EXTRAS="baseten,groq" curl -LsSf https://raw.githubusercontent.com/langchain-ai/deepagents/refs/heads/main/libs/cli/scripts/install.sh | bash
    
    # 或直接使用 uv 安装
    uv tool install 'deepagents-cli[baseten,groq]'
    
    # 后期添加其他包
    uv tool install deepagents-cli --with langchain-ollama
    
    # 所有提供者
    uv tool install 'deepagents-cli[anthropic,baseten,bedrock,cohere,deepseek,fireworks,google-genai,groq,huggingface,ibm,litellm,mistralai,nvidia,ollama,openai,openrouter,perplexity,vertexai,xai]'
    
  2. 设置凭据 将 API 密钥存储在 ~/.deepagents/.env 中,以便所有项目都能访问,或者在 shell 中导出它们:
    ANTHROPIC_API_KEY=sk-ant-...
    OPENAI_API_KEY=sk-...
    
    一些提供者使用其他凭据(例如,Vertex AI 使用 GOOGLE_CLOUD_PROJECT 加上 ADC)。参见下表中每个提供者的所需变量。您也可以通过 DEEPAGENTS_CLI_ 前缀将凭据限制在 CLI 中查看 DeepAgents CLI_ 前缀

提供者参考

使用未在此处列出的提供者?参见 任意提供者:任何与 LangChain 兼容的提供者都可以在 CLI 中使用,只需额外设置即可。
提供者凭证环境变量模型配置文件
OpenAIlangchain-openaiOPENAI_API_KEY
Azure OpenAIlangchain-openaiAZURE_OPENAI_API_KEY
Anthropiclangchain-anthropicANTHROPIC_API_KEY
Google Gemini APIlangchain-google-genaiGOOGLE_API_KEY
Google Vertex AIlangchain-google-genaiGOOGLE_CLOUD_PROJECT
Basetenlangchain-basetenBASETEN_API_KEY
AWS Bedrocklangchain-awsAWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY
AWS Bedrock Converselangchain-awsAWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY
Hugging Facelangchain-huggingfaceHUGGINGFACEHUB_API_TOKEN
Ollamalangchain-ollama可选
Groqlangchain-groqGROQ_API_KEY
Coherelangchain-cohereCOHERE_API_KEY
Fireworkslangchain-fireworksFIREWORKS_API_KEY
Togetherlangchain-togetherTOGETHER_API_KEY
Mistral AIlangchain-mistralaiMISTRAL_API_KEY
DeepSeeklangchain-deepseekDEEPSEEK_API_KEY
IBM (watsonx.ai)langchain-ibmWATSONX_APIKEY
Nvidialangchain-nvidia-ai-endpointsNVIDIA_API_KEY
xAIlangchain-xaiXAI_API_KEY
Perplexitylangchain-perplexityPPLX_API_KEY
OpenRouterlangchain-openrouterOPENROUTER_API_KEY
LiteLLMlangchain-litellm按提供者(参见 文档
通过添加 DEEPAGENTS_CLI_ 前缀,可以将任何凭据限制在 CLI 中。例如,在 CLI 内部使用 DEEPAGENTS_CLI_OPENAI_API_KEY 优先于 OPENAI_API_KEY,不会影响其他工具。有关详细信息,请参见 DEEPAGENTS_CLI_ 前缀
模型配置文件 是随提供者包一起提供的元数据捆绑(模型名称、默认参数、功能等)的集合,主要由 models.dev 项目 提供动力。包含模型配置文件的提供者会自动在其交互式 /model 切换器中列出其模型,受 筛选标准 的限制(特别是 tool_calling 必须启用)。没有模型配置文件的提供者需要直接指定模型名称或通过 config.toml 添加模型。

模型路由器和代理

像 OpenRouter 和 LiteLLM 这样的模型路由器通过单一端点提供了来自多个提供者的模型访问。 使用这些服务的专用集成包:
路由器配置
OpenRouterlangchain-openrouteropenrouter:<model>(内置,参见 提供者参考
LiteLLMlangchain-litellmlitellm:<model>(内置,参见 提供者参考
OpenRouter 是一个内置提供者—安装包并直接使用它:
uv tool install 'deepagents-cli[openrouter]'
LiteLLM 也是一个内置提供者:
uv tool install 'deepagents-cli[litellm]'

切换模型

要在 CLI 中切换模型,可以:
  1. 使用交互式模型切换器 使用 /model 命令。这会显示每个安装的 LangChain 提供者包中的 模型配置文件 源自的可用模型。
    并非所有模型都会出现在这里。如果缺少,请直接传递模型名称(例如 /model gpt-5.4)。有关详细信息,请参见 哪些模型出现在切换器中
  2. 直接指定一个模型名称 作为参数,例如 /model gpt-5.4。您可以使用任何由所选提供者支持的模型,而无需考虑选项1中的列表。模型名称将传递给 API 请求。
  3. 在启动时指定模型 使用 --model 参数,例如
    deepagents --model openai:gpt-5.4
    

哪些模型出现在切换器中

/model 选择器动态地从安装的提供者包构建其列表。展开以查看完整标准和故障排除。
交互式 /model 选择器会动态构建其列表——它不是 CLI 中硬编码的列表。一个模型出现在切换器中,当 所有 下列条件都满足时:
  1. 提供者包已安装。 每个提供者(例如 langchain-anthropic, langchain-openai)必须与 deepagents-cli 一起安装——可以作为 快速启动 中的安装附加项(例如 uv tool install 'deepagents-cli[ollama]'),或稍后使用 uv tool install deepagents-cli --with <package> 添加。如果缺少包,切换器中将没有其整个提供者部分。
  2. 模型具有启用 tool_calling 的配置文件。 CLI 需要工具调用支持,因此配置文件中未包含 tool_calling: true 的模型会被排除在外。这是导致模型从列表中缺失的最常见原因。对于没有捆绑配置文件的提供者(参见 提供者参考 表),您可以在 config.toml 中定义一个:
    [models.providers.ollama.profile."qwen3:4b"]
    tool_calling = true
    max_input_tokens = 32768
    max_output_tokens = 8192
    
    这并不是模型必须出现在切换器中的严格要求——将其添加到 models 列表中(参见 配置)也可以,且更简单。当您希望 CLI 知道模型的上下文窗口和功能以进行自动摘要等特性时,配置文件是有用的。有关所有可覆盖字段,请参见 配置覆盖
  3. 模型接受并产生文本。 配置文件中明确设置 text_inputstext_outputsfalse 的模型(例如嵌入或图像生成模型)将被排除在外。
config.toml 中定义的模型,位于 [models.providers.<name>].models 下,会绕过配置文件过滤。它们无论配置文件元数据如何都会出现在切换器中。这是推荐的方法来添加列表中缺少的模型。
凭据状态不会影响是否列出一个模型。切换器显示所有合格的模型,并在每个提供者标题旁边显示凭据指示符:确认凭据时为勾号,缺失凭据时为警告符号,当凭据状态未知时为问号。即使缺少凭据,您仍然可以选择该模型——请求时提供程序会报告身份验证错误。

故障排除缺失的模型

症状可能的原因解决方案
提供者整个缺失于切换器中提供者包未安装安装该包(例如 uv tool install deepagents-cli --with langchain-groq
提供者显示但特定模型缺失模型配置文件具有 tool_calling: false 或不存在配置文件将模型添加到 [models.providers.<name>].models 中的 config.toml,或直接使用 /model <provider>:<model>
提供者显示 ⚠ “缺少凭据”API 密钥环境变量未设置提供者参考 表中设置凭证环境变量
提供者显示 ? “凭据未知”提供者使用 CLI 无法验证的非标准身份验证方式凭证可能仍然有效——尝试切换到该模型。如果认证失败,请检查提供者的文档

设置默认模型

您可以设置一个持久化的默认模型,用于所有未来的 CLI 启动:
  • 通过模型选择器: 打开 /model,导航至所需的模型并按 Ctrl+S 以将其设为默认值。再次按 Ctrl+S 可清除当前默认值。
  • 通过命令: /model --default provider:model(例如 /model --default anthropic:claude-opus-4-6)
  • 通过配置文件:~/.deepagents/config.toml 中设置 [models].default (参见 配置)
  • 从 shell:
    deepagents --default-model anthropic:claude-opus-4-6
    
要查看当前默认值:
deepagents --default-model
要清除默认值:
  • 从 shell:
    deepagents --clear-default-model
    
  • 通过命令: /model --default --clear
  • 通过模型选择器: 在当前已固定默认模型上按 Ctrl+S
如果没有默认值,CLI 将使用最近使用的模型作为默认值。

模型解析顺序

当 CLI 启动时,它将按照以下顺序解析要使用的模型:
  1. --model 标志 当提供时总是获胜。
  2. [models].default~/.deepagents/config.toml 中——用户的长期偏好。
  3. [models].recent~/.deepagents/config.toml 中——通过 /model 最后切换到的模型。自动写入,从不覆盖 [models].default
  4. 环境自动检测: 落回第一个可用的启动凭据,按顺序检查:OPENAI_API_KEY, ANTHROPIC_API_KEY, GOOGLE_API_KEY, GOOGLE_CLOUD_PROJECT (Vertex AI)。
此启动回退故意只检查这四个凭据。其他受支持的提供者(例如 Groq)仍然可以通过 --model/model 和保存的默认值 ([models].default / [models].recent) 使用。

高级配置

有关详细配置提供者参数、配置文件覆盖、自定义基础 URL、兼容 API、任意提供者和生命周期挂钩的信息,请参见 配置