Skip to main content
CLI 将其配置存储在 ~/.deepagents/ 目录中。主要配置文件包括:
文件格式用途
config.tomlTOML模型默认值、提供商设置、构造函数参数、profile 覆盖、主题、更新设置、MCP 信任存储
.envDotenv全局 API 密钥和 secrets
hooks.jsonJSON外部工具订阅 CLI 生命周期事件
.mcp.jsonJSON全局 MCP 服务器定义

环境变量

CLI 从 dotenv 文件加载环境变量,因此您无需在 shell 配置文件中 export API 密钥或在项目间复制 .env 文件。

加载顺序和优先级

启动时加载两个 .env 文件:
  1. 项目 .env — 当前工作目录中的 .env 文件(如果存在)
  2. 全局 ~/.deepagents/.env — 单个共享文件,作为所有项目的 fallback
有效优先级为:shell 环境变量 > 项目 .env > 全局 .env。shell 中已设置的值永远不会被覆盖——包括在 /reload 时。

DEEPAGENTS_CLI_ 前缀

所有 CLI 特定的环境变量都使用 DEEPAGENTS_CLI_ 前缀(例如 DEEPAGENTS_CLI_AUTO_UPDATEDEEPAGENTS_CLI_DEBUG)。完整列表参见 CLI 环境变量参考 该前缀还作为 CLI 读取的任何环境变量的覆盖机制,包括第三方凭证。CLI 首先检查 DEEPAGENTS_CLI_{NAME},然后 fallback 到 {NAME}
~/.deepagents/.env
# 仅针对 CLI 覆盖 OPENAI_API_KEY,不影响其他工具
DEEPAGENTS_CLI_OPENAI_API_KEY=sk-cli-only

# 通过将前缀变量设置为空,在 CLI 内阻止 shell 导出的密钥
DEEPAGENTS_CLI_ANTHROPIC_API_KEY=
/reload 时,CLI 重新读取 .env 文件并获取前缀值,因此您可以轮换密钥而无需重启。

示例

将 API 密钥一次性存储在 ~/.deepagents/.env 中:
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
LANGSMITH_API_KEY=lsv2_...
TAVILY_API_KEY=tvly-...

# 如果 OPENAI_API_KEY 已在 shell 中为其他工具导出,
# 使用前缀为 CLI 提供自己的密钥而不冲突
DEEPAGENTS_CLI_OPENAI_API_KEY=sk-cli-only-...
然后在需要时通过在项目目录中放置 .env 来按项目覆盖。

配置文件

~/.deepagents/config.toml 允许您自定义模型提供商、设置默认值以及向模型构造函数传递额外参数。

默认和最近使用的模型

[models]
default = "ollama:qwen3:4b"             # 您有意的长期偏好
recent = "anthropic:claude-sonnet-4-5"   # 上次 /model 切换(自动写入)
[models].default 始终优先于 [models].recent/model 命令仅写入 [models].recent,因此您配置的默认值永远不会被会话中间的切换覆盖。要移除默认值,请使用 /model --default --clear 或从配置文件中删除 default 键。

提供商配置

每个提供商是 [models.providers] 下的一个 TOML 表:
[models.providers.<name>]
models = ["gpt-4o"]
api_key_env = "OPENAI_API_KEY"
base_url = "https://api.openai.com/v1"
class_path = "my_package.models:MyChatModel"
enabled = true

[models.providers.<name>.params]
temperature = 0
max_tokens = 4096

[models.providers.<name>.params."gpt-4o"]
temperature = 0.7
提供商具有以下配置选项:
models
string[]
optional
在此提供商的交互式 /model 切换器中显示的模型名称列表。对于已经附带模型 profile 的提供商,您在此处添加的任何名称都会与捆绑的名称一起出现,这对于尚未添加到包中的新发布模型很有用。对于 任意提供商,此列表是切换器中模型的唯一来源。此处列出的模型 绕过 基于 profile 的 过滤条件,并始终出现在切换器中。这使得它成为展示因 profile 缺乏 tool_calling 支持或尚不存在而被排除的模型的推荐方式。此键是可选的。无论模型是否出现在切换器中,您始终可以直接将任何模型名称传递给 /model--model;提供商在请求时验证名称。
api_key_env
string
optional
持有 API 密钥的环境变量的名称(例如 "OPENAI_API_KEY"),而不是密钥本身。CLI 在启动时从此 env var 读取凭证以在创建模型之前验证访问权限。大多数聊天模型包会自动从默认 env var 读取。参见 提供商参考 表以了解每个提供商检查哪个变量。
base_url
string
optional
覆盖提供商使用的基础 URL(如果支持)。有关更多信息,请参阅您的提供商包的 参考文档
params
object
optional
转发到模型构造函数的额外关键字参数。扁平键(例如 temperature = 0)适用于此提供商的每个模型。模型键控子表(例如 [params."gpt-4o"])仅覆盖该模型的单个值;合并是浅层的(冲突时模型胜出)。不要在 params 中放置凭证(例如 api_key)。请使用 api_key_env 指向环境变量。
profile
object
optional
(高级)覆盖模型运行时 profile 中的字段(例如 max_input_tokens)。扁平键适用于此提供商的每个模型。模型键控子表(例如 [profile."claude-sonnet-4-5"])仅覆盖该模型的单个值;合并是浅层的(冲突时模型胜出)。这些覆盖在模型创建后应用,因此它们对上下文限制显示、自动摘要以及任何读取 profile 的其他功能生效。
class_path
string
optional
用于 任意模型 提供商。module.path:ClassName 格式的完全限定 Python 类。设置后,CLI 直接导入并实例化此类作为提供商 <name>。该类必须是 BaseChatModel 子类。
enabled
boolean
default:"true"
optional
此提供商是否出现在 /model 选择器中。设置为 false 以隐藏从已安装包自动发现的提供商(例如,您不希望 cluttering 切换器的传递依赖项)。您仍然可以通过 /model provider:model--model 直接使用禁用的提供商。

模型构造函数参数

任何提供商都可以使用 params 表向模型构造函数传递额外参数:
[models.providers.ollama.params]
temperature = 0
num_ctx = 8192

每模型覆盖

如果特定模型需要不同的参数,请在 params 下添加模型键控子表以覆盖单个值,而无需复制整个提供商配置:
[models.providers.ollama]
models = ["qwen3:4b", "llama3"]

[models.providers.ollama.params]
temperature = 0
num_ctx = 8192

[models.providers.ollama.params."qwen3:4b"]
temperature = 0.5
num_ctx = 4000
使用此配置:
  • ollama:qwen3:4b 获取 {temperature: 0.5, num_ctx: 4000} — 模型覆盖胜出。
  • ollama:llama3 获取 {temperature: 0, num_ctx: 8192} — 无覆盖,仅提供商级参数。
合并是浅层的:模型子表中存在的任何键都会替换提供商级参数中的相同键,而仅位于提供商级的键会被保留。

使用 --model-params 的 CLI 覆盖

对于无需编辑配置文件的一次性调整,请在启动时或通过 /model 命令在会话中间通过 --model-params 传递 JSON 对象:
deepagents --model ollama:llama3 --model-params '{"temperature": 0.9, "num_ctx": 16384}'

# 在非交互模式下
deepagents -n "Summarize this repo" --model ollama:llama3 --model-params '{"temperature": 0}'
TUI 内部
/model --model-params '{"temperature": 0.9}' ollama:llama3
/model --model-params '{"num_ctx": 16384}'  # 打开选择器,将参数应用于所选模型
这些具有最高优先级,覆盖配置文件参数的值。会话中间参数仅适用于当前会话,不会持久化。--model-params 不能与 --default 结合使用。

Profile 覆盖(高级)

覆盖模型运行时 profile 中的字段以更改 CLI 解释模型能力的方式。最常见的用例是降低 max_input_tokens 以更早触发自动摘要——这对于测试或限制上下文使用很有用:
# 应用于此提供商的所有模型
[models.providers.anthropic.profile]
max_input_tokens = 4096
每模型子表的工作方式与 params 相同 — 冲突时模型级值胜出:
[models.providers.anthropic.profile]
max_input_tokens = 4096

# 此模型获得更高的限制
[models.providers.anthropic.profile."claude-sonnet-4-5"]
max_input_tokens = 8192
Profile 覆盖在创建后合并到模型的 profile 中。任何读取 profile 的功能 — 状态栏中的上下文限制显示、自动摘要阈值、能力检查 — 都将看到覆盖值。

使用 --profile-override 的 CLI profile 覆盖(高级)

要在运行时覆盖模型 profile 字段而无需编辑配置文件,请通过 --profile-override 传递 JSON 对象:
deepagents --profile-override '{"max_input_tokens": 4096}'

# 与 --model 结合
deepagents --model anthropic:claude-sonnet-4-5 --profile-override '{"max_input_tokens": 4096}'

# 在非交互模式下
deepagents -n "Summarize this repo" --profile-override '{"max_input_tokens": 4096}'
这些合并到配置文件 profile 覆盖之上(CLI 胜出)。优先级链为:模型默认 < config.toml profile < CLI --profile-override --profile-override 值在会话中间 /model 热交换中持久化 — 切换模型会将覆盖重新应用于新模型。

自定义基础 URL

一些提供商包接受 base_url 以覆盖默认端点。例如,langchain-ollama 通过底层 ollama 客户端默认为 http://localhost:11434。要指向其他地方,请在配置中设置 base_url
[models.providers.ollama]
base_url = "http://your-host-here:port"
有关兼容性信息和其他注意事项,请参阅您的提供商的参考文档。

兼容的 API

对于公开与 OpenAI 或 Anthropic wire-compatible API 的提供商,您可以通过将 base_url 指向提供商的端点来使用现有的 langchain-openailangchain-anthropic 包:
[models.providers.openai]
base_url = "https://api.example.com/v1"
api_key_env = "EXAMPLE_API_KEY"
models = ["my-model"]
[models.providers.anthropic]
base_url = "https://api.example.com"
api_key_env = "EXAMPLE_API_KEY"
models = ["my-model"]
提供商在官方规范之上添加的任何功能都将不会被捕获。如果提供商提供专用的 LangChain 集成包,请优先使用该包。

将模型添加到交互式切换器

一些提供商(例如 langchain-ollama)不捆绑模型 profile 数据(参见 提供商参考 获取完整列表)。在这种情况下,交互式 /model 切换器不会列出该提供商的模型。您可以通过在配置文件中为该提供商定义 models 列表来填补空白:
[models.providers.ollama]
models = ["llama3", "mistral", "codellama"]
/model 切换器现在将包含一个列出这些模型的 Ollama 部分。 这完全是可选的。您始终可以通过直接指定其全名来切换到任何模型:
/model ollama:llama3

任意提供商

您可以使用 class_path 使用任何 LangChain BaseChatModel 子类。CLI 直接导入并实例化该类 — 不需要内置提供商包。
[models.providers.my_custom]
class_path = "my_package.models:MyChatModel"
api_key_env = "MY_API_KEY"
base_url = "https://my-endpoint.example.com"

[models.providers.my_custom.params]
temperature = 0
max_tokens = 4096
api_key_envbase_url 是可选的。class_path 提供商预计会在内部处理自己的身份验证 — 当您的模型使用自定义身份验证(JWT tokens、专有 headers、mTLS 等)而不是标准 API 密钥时很有用:
[models.providers.xyz]
class_path = "abc.integrations.deepagents:DeepAgentsXYZChat"
models = ["abc-xyz-1"]

[models.providers.xyz.params]
bypass_auth = true
temperature = 0
使用此配置,使用 /model xyz:abc-xyz-1--model xyz:abc-xyz-1 切换到模型。
Deep Agents 需要 tool calling 支持。如果您的自定义模型支持 tool calling 但 CLI 不知道,请在提供商 profile 中声明它:
[models.providers.xyz.profile]
tool_calling = true
max_input_tokens = 128000
max_input_tokens 设置为您的模型支持的值以启用准确的上下文长度跟踪和自动摘要。
提供商包必须安装在与 deepagents-cli 相同的 Python 环境中:
# 如果 deepagents-cli 是使用 uv tool 安装的:
uv tool install deepagents-cli --with my_package
当您切换到 my_custom:my-model-v1(通过 /model--model)时,模型名称(my-model-v1)作为 model kwarg 传递:
MyChatModel(model="my-model-v1", base_url="...", api_key="...", temperature=0, max_tokens=4096)
class_path 从您的配置文件执行任意 Python 代码。这与 pyproject.toml 构建脚本具有相同的信任模型 — 您控制自己的机器。
您的提供商包可以选择在 <package>.data._profiles 中的 _PROFILES dict 中提供模型 profile,而不是在 models 键下定义它们。有关更多信息,请参阅 LangChain 模型 profile

Skills 额外允许目录

默认情况下,当 CLI 加载 skills 时,它会验证解析的 skill 文件路径是否保持在标准 技能目录 之一内。这防止技能目录内的 symlinks 读取这些根目录之外的任意文件。 如果您将共享技能资产存储在非标准位置并使用标准技能目录中的 symlinks 引用它们,您可以将该位置添加到 containment allowlist。这不会添加新的技能发现位置:技能仍然仅从标准目录发现。
extra_allowed_dirs
string[]
optional
添加到技能 containment allowlist 的路径。支持 ~ 扩展。
[skills]
extra_allowed_dirs = [
    "~/shared-skills",
    "/opt/team-skills",
]
或者,将 DEEPAGENTS_CLI_EXTRA_SKILLS_DIRS 环境变量设置为冒号分隔的列表:
export DEEPAGENTS_CLI_EXTRA_SKILLS_DIRS="~/shared-skills:/opt/team-skills"
设置环境变量后,它优先于配置文件值。更改在 /reload 时生效。

主题

使用 /theme 打开交互式主题选择器。导航列表以实时预览主题,按 Enter 将您的选择持久化到 config.toml CLI 附带许多内置主题。默认主题是 langchain,一个带有 LangChain 品牌颜色的深色主题。选定的主题持久化在 [ui] 下:
[ui]
theme = "langchain-dark"

用户定义的主题

config.toml 中的 [themes.<name>] 部分下定义自定义主题。每个部分需要 label(str)。dark(bool)如果省略则默认为 false — 对于深色主题设置为 true。所有颜色字段都是可选的 — 省略的字段根据 dark 标志 fallback 到内置的深色或浅色调色板。
[themes.my-solarized]
label = "My Solarized"
dark = true
primary = "#268BD2"
warning = "#B58900"

# 带有空格的主题名称需要 TOML 引号
[themes."ocean breeze"]
label = "Ocean Breeze"
primary = "#0077B6"
background = "#CAF0F8"
用户定义的主题与内置主题一起出现在 /theme 选择器中。

覆盖内置主题颜色

要调整内置主题的颜色而无需创建新主题,请使用 [themes.<builtin-name>] 部分。仅读取颜色字段 — labeldark 从内置继承:
[themes.langchain]
primary = "#FF5500"
省略的颜色字段保留现有的内置值。 [themes.*] 部分的更改在 /reload 时生效。

自动更新

CLI 可以自动检查并安装更新。
[update]
auto_update = true
环境变量优先于配置文件。 启用后,CLI 在会话开始时检查 PyPI 是否有新版本,并使用检测到的安装方法(uv、Homebrew 或 pip)自动升级。禁用时(默认),CLI 显示带有适当安装命令的更新提示。 您也可以随时使用 /update slash 命令手动检查并安装更新,这会绕过缓存并内联报告成功或失败。 升级后,CLI 在下次启动时显示“新功能”横幅,并带有指向 changelog 的链接。 在会话退出时,如果在会话期间检测到新版本,则会显示更新横幅作为提醒。

托管部署

安装脚本 支持作为 root 运行,针对 macOS MDM 工具(Kandji、Jamf 等),这些工具在最小 root 环境中执行脚本。 id -u0 时,脚本:
  1. 解析真实控制台用户的 HOME(通过 /dev/console/Users 目录扫描)
  2. 在每个安装步骤后将所有创建的文件 chown 回目标用户
非 root 安装不受影响:所有 root 特定代码路径在不作为 root 运行时短路。 要为托管安装预配置自动更新,请在用户的 shell 配置文件中设置 DEEPAGENTS_CLI_AUTO_UPDATE=1 或将带有 [update] auto_update = trueconfig.toml 部署到 ~/.deepagents/config.toml。要完全抑制自动更新和更新检查,请设置 DEEPAGENTS_CLI_NO_UPDATE_CHECK=1

CLI 环境变量参考

所有 CLI 特定的环境变量都使用 DEEPAGENTS_CLI_ 前缀。参见 DEEPAGENTS_CLI_ 前缀 了解前缀如何作为第三方凭证的覆盖。
DEEPAGENTS_CLI_AUTO_UPDATE
string
optional
启用自动 CLI 更新(1trueyes)。
DEEPAGENTS_CLI_DEBUG
string
optional
启用详细调试日志记录到文件。
DEEPAGENTS_CLI_DEBUG_FILE
string
default:"/tmp/deepagents_debug.log"
optional
调试日志文件的路径。
DEEPAGENTS_CLI_EXTRA_SKILLS_DIRS
string
optional
添加到 技能 containment allowlist 的冒号分隔路径。
DEEPAGENTS_CLI_LANGSMITH_PROJECT
string
optional
覆盖 agent traces 的 LangSmith 项目名称。参见 使用 LangSmith 进行追踪
DEEPAGENTS_CLI_NO_UPDATE_CHECK
string
optional
设置时禁用自动更新检查。
DEEPAGENTS_CLI_SHELL_ALLOW_LIST
string
optional
允许的逗号分隔 shell 命令(或 recommended / all)。
DEEPAGENTS_CLI_USER_ID
string
optional
将用户标识符附加到 LangSmith trace 元数据。

外部编辑器

Ctrl+X 或输入 /editor 在外部编辑器中编写 prompts。CLI 检查 $VISUAL,然后 $EDITOR,然后 fallback 到 vi(macOS/Linux)或 notepad(Windows)。GUI 编辑器(VS Code、Cursor、Zed、Sublime Text、Windsurf)自动接收 --wait 标志,因此 CLI 会阻塞直到您关闭文件。
# 在您的 shell 配置文件中设置 (~/.zshrc, ~/.bashrc, etc.)
export VISUAL="code"    # GUI 编辑器 (--wait 自动注入)
export EDITOR="nvim"    # 终端 fallback

钩子

钩子允许外部程序对 CLI 生命周期事件做出反应。在 ~/.deepagents/hooks.json 中配置命令,每当事件触发时,CLI 将 JSON payload 管道传输到每个匹配命令的 stdin。 钩子在后台线程中 fire-and-forget 运行 — 它们永远不会阻塞 CLI,失败会被记录而不会中断您的会话。

设置

创建 ~/.deepagents/hooks.json
{
  "hooks": [
    {
      "command": ["bash", "-c", "cat >> ~/deepagents-events.log"],
      "events": ["session.start", "session.end"]
    }
  ]
}
现在每次会话开始或结束时,CLI 会将事件 payload 附加到 ~/deepagents-events.log

钩子配置

配置文件包含单个 hooks 数组。每个条目具有:
command
list[str]
required
要运行的命令和参数。无 shell 扩展:如果需要请使用 ["bash", "-c", "..."]
events
list[str]
optional
要订阅的事件名称。省略或留空以接收 所有 事件。
{
  "hooks": [
    {
      "command": ["python3", "my_handler.py"],
      "events": ["session.start", "task.complete"]
    },
    {
      "command": ["bash", "log_everything.sh"]
    }
  ]
}
上面的第二个钩子没有 events 过滤器,因此它接收 CLI 发出的每个事件。

Payload 格式

每个钩子命令在 stdin 上接收一个带有 "event" 键 plus 事件特定字段的 JSON 对象:
{
  "event": "session.start",
  "thread_id": "abc123"
}

事件参考

session.start

当 agent 会话开始时触发(交互和非交互模式)。
thread_id
string
required
会话线程标识符。

session.end

当会话退出时触发。
thread_id
string
required
会话线程标识符。

user.prompt

在交互模式下当用户提交聊天消息时触发。 无额外字段。

input.required

当 agent 需要人类输入时触发(human-in-the-loop interrupt)。 无额外字段。

permission.request

在批准对话框之前当一个或多个工具调用需要用户权限时触发。
tool_names
list[str]
required
请求批准的工具名称。

tool.error

当工具调用返回错误时触发。
tool_names
list[str]
required
出错的工具名称。

task.complete

当 agent 完成其当前任务时触发(流式循环结束 without further interrupts)。
thread_id
string
required
会话线程标识符。

context.compact

在 CLI 压缩(摘要)对话上下文之前触发。 无额外字段。

执行模型

  • 后台线程:钩子子进程通过 asyncio.to_thread 在线程中运行,因此主事件循环永远不会被阻塞。
  • 并发调度:当多个钩子匹配事件时,它们在线程池中并发运行。
  • 5 秒超时:每个命令有 5 秒超时。超过此时间的命令会被杀死。
  • Fire-and-forget:错误按钩子捕获并在 debug/warning 级别记录。失败的钩子永远不会崩溃或停滞 CLI。
  • 懒加载:配置文件在第一次事件调度时读取一次,并在会话其余部分缓存。
  • 无 shell 扩展:命令直接执行(不通过 shell)。如果您需要 shell 功能如 pipes 或变量扩展,请包装在 ["bash", "-c", "..."] 中。

钩子示例

{
  "hooks": [
    {
      "command": ["bash", "-c", "jq -c . >> ~/.deepagents/hook-events.jsonl"],
      "events": []
    }
  ]
}
{
  "hooks": [
    {
      "command": [
        "bash", "-c",
        "osascript -e 'display notification \"Agent finished\" with title \"Deep Agents\"'"
      ],
      "events": ["task.complete"]
    }
  ]
}
编写一个从 stdin 读取 JSON payload 的处理程序脚本:
my_handler.py
import json
import sys

payload = json.load(sys.stdin)
event = payload["event"]

if event == "session.start":
    print(f"Session started: {payload['thread_id']}", file=sys.stderr)
elif event == "permission.request":
    print(f"Approval needed for: {payload['tool_names']}", file=sys.stderr)
~/.deepagents/hooks.json
{
  "hooks": [
    {
      "command": ["python3", "my_handler.py"],
      "events": ["session.start", "permission.request"]
    }
  ]
}

安全注意事项

钩子遵循与 Git hooks 或 shell 别名相同的信任模型 — 任何可以写入 ~/.deepagents/hooks.json 的用户都可以执行任意命令。这是设计使然:
  • 无命令注入:Payload 数据仅作为 JSON 流式传输到 stdin,从不流向命令行参数。json.dumps 处理转义。
  • 默认无 shell:命令使用 shell=False 运行,防止 shell 注入。
  • 格式错误的配置:无效的 JSON 或意外的类型会产生记录的警告,而不是安全问题。
仅添加您信任来源的钩子。钩子具有与您用户帐户相同的权限。