~/.deepagents/ 目录中。主要配置文件包括:
| 文件 | 格式 | 用途 |
|---|---|---|
config.toml | TOML | 模型默认值、提供商设置、构造函数参数、profile 覆盖、主题、更新设置、MCP 信任存储 |
.env | Dotenv | 全局 API 密钥和 secrets |
hooks.json | JSON | 外部工具订阅 CLI 生命周期事件 |
.mcp.json | JSON | 全局 MCP 服务器定义 |
环境变量
CLI 从 dotenv 文件加载环境变量,因此您无需在 shell 配置文件中export API 密钥或在项目间复制 .env 文件。
加载顺序和优先级
启动时加载两个.env 文件:
- 项目
.env— 当前工作目录中的.env文件(如果存在) - 全局
~/.deepagents/.env— 单个共享文件,作为所有项目的 fallback
.env > 全局 .env。shell 中已设置的值永远不会被覆盖——包括在 /reload 时。
DEEPAGENTS_CLI_ 前缀
所有 CLI 特定的环境变量都使用 DEEPAGENTS_CLI_ 前缀(例如 DEEPAGENTS_CLI_AUTO_UPDATE、DEEPAGENTS_CLI_DEBUG)。完整列表参见 CLI 环境变量参考。
该前缀还作为 CLI 读取的任何环境变量的覆盖机制,包括第三方凭证。CLI 首先检查 DEEPAGENTS_CLI_{NAME},然后 fallback 到 {NAME}:
~/.deepagents/.env
/reload 时,CLI 重新读取 .env 文件并获取前缀值,因此您可以轮换密钥而无需重启。
示例
将 API 密钥一次性存储在~/.deepagents/.env 中:
.env 来按项目覆盖。
配置文件
~/.deepagents/config.toml 允许您自定义模型提供商、设置默认值以及向模型构造函数传递额外参数。
默认和最近使用的模型
[models].default 始终优先于 [models].recent。/model 命令仅写入 [models].recent,因此您配置的默认值永远不会被会话中间的切换覆盖。要移除默认值,请使用 /model --default --clear 或从配置文件中删除 default 键。
提供商配置
每个提供商是[models.providers] 下的一个 TOML 表:
持有 API 密钥的环境变量的名称(例如
"OPENAI_API_KEY"),而不是密钥本身。CLI 在启动时从此 env var 读取凭证以在创建模型之前验证访问权限。大多数聊天模型包会自动从默认 env var 读取。参见 提供商参考 表以了解每个提供商检查哪个变量。转发到模型构造函数的额外关键字参数。扁平键(例如
temperature = 0)适用于此提供商的每个模型。模型键控子表(例如 [params."gpt-4o"])仅覆盖该模型的单个值;合并是浅层的(冲突时模型胜出)。不要在 params 中放置凭证(例如 api_key)。请使用 api_key_env 指向环境变量。(高级)覆盖模型运行时 profile 中的字段(例如
max_input_tokens)。扁平键适用于此提供商的每个模型。模型键控子表(例如 [profile."claude-sonnet-4-5"])仅覆盖该模型的单个值;合并是浅层的(冲突时模型胜出)。这些覆盖在模型创建后应用,因此它们对上下文限制显示、自动摘要以及任何读取 profile 的其他功能生效。用于 任意模型 提供商。
module.path:ClassName 格式的完全限定 Python 类。设置后,CLI 直接导入并实例化此类作为提供商 <name>。该类必须是 BaseChatModel 子类。此提供商是否出现在
/model 选择器中。设置为 false 以隐藏从已安装包自动发现的提供商(例如,您不希望 cluttering 切换器的传递依赖项)。您仍然可以通过 /model provider:model 或 --model 直接使用禁用的提供商。模型构造函数参数
任何提供商都可以使用params 表向模型构造函数传递额外参数:
每模型覆盖
如果特定模型需要不同的参数,请在params 下添加模型键控子表以覆盖单个值,而无需复制整个提供商配置:
ollama:qwen3:4b获取{temperature: 0.5, num_ctx: 4000}— 模型覆盖胜出。ollama:llama3获取{temperature: 0, num_ctx: 8192}— 无覆盖,仅提供商级参数。
使用 --model-params 的 CLI 覆盖
对于无需编辑配置文件的一次性调整,请在启动时或通过 /model 命令在会话中间通过 --model-params 传递 JSON 对象:
TUI 内部
--model-params 不能与 --default 结合使用。
Profile 覆盖(高级)
覆盖模型运行时 profile 中的字段以更改 CLI 解释模型能力的方式。最常见的用例是降低max_input_tokens 以更早触发自动摘要——这对于测试或限制上下文使用很有用:
params 相同 — 冲突时模型级值胜出:
使用 --profile-override 的 CLI profile 覆盖(高级)
要在运行时覆盖模型 profile 字段而无需编辑配置文件,请通过 --profile-override 传递 JSON 对象:
--profile-override。
--profile-override 值在会话中间 /model 热交换中持久化 — 切换模型会将覆盖重新应用于新模型。
自定义基础 URL
一些提供商包接受base_url 以覆盖默认端点。例如,langchain-ollama 通过底层 ollama 客户端默认为 http://localhost:11434。要指向其他地方,请在配置中设置 base_url:
兼容的 API
对于公开与 OpenAI 或 Anthropic wire-compatible API 的提供商,您可以通过将base_url 指向提供商的端点来使用现有的 langchain-openai 或 langchain-anthropic 包:
提供商在官方规范之上添加的任何功能都将不会被捕获。如果提供商提供专用的 LangChain 集成包,请优先使用该包。
将模型添加到交互式切换器
一些提供商(例如langchain-ollama)不捆绑模型 profile 数据(参见 提供商参考 获取完整列表)。在这种情况下,交互式 /model 切换器不会列出该提供商的模型。您可以通过在配置文件中为该提供商定义 models 列表来填补空白:
/model 切换器现在将包含一个列出这些模型的 Ollama 部分。
这完全是可选的。您始终可以通过直接指定其全名来切换到任何模型:
任意提供商
您可以使用class_path 使用任何 LangChain BaseChatModel 子类。CLI 直接导入并实例化该类 — 不需要内置提供商包。
api_key_env 和 base_url 是可选的。class_path 提供商预计会在内部处理自己的身份验证 — 当您的模型使用自定义身份验证(JWT tokens、专有 headers、mTLS 等)而不是标准 API 密钥时很有用:
/model xyz:abc-xyz-1 或 --model xyz:abc-xyz-1 切换到模型。
Deep Agents 需要 tool calling 支持。如果您的自定义模型支持 tool calling 但 CLI 不知道,请在提供商 profile 中声明它:将
max_input_tokens 设置为您的模型支持的值以启用准确的上下文长度跟踪和自动摘要。deepagents-cli 相同的 Python 环境中:
my_custom:my-model-v1(通过 /model 或 --model)时,模型名称(my-model-v1)作为 model kwarg 传递:
<package>.data._profiles 中的 _PROFILES dict 中提供模型 profile,而不是在 models 键下定义它们。有关更多信息,请参阅 LangChain 模型 profile。
Skills 额外允许目录
默认情况下,当 CLI 加载 skills 时,它会验证解析的 skill 文件路径是否保持在标准 技能目录 之一内。这防止技能目录内的 symlinks 读取这些根目录之外的任意文件。 如果您将共享技能资产存储在非标准位置并使用标准技能目录中的 symlinks 引用它们,您可以将该位置添加到 containment allowlist。这不会添加新的技能发现位置:技能仍然仅从标准目录发现。添加到技能 containment allowlist 的路径。支持
~ 扩展。DEEPAGENTS_CLI_EXTRA_SKILLS_DIRS 环境变量设置为冒号分隔的列表:
/reload 时生效。
主题
使用/theme 打开交互式主题选择器。导航列表以实时预览主题,按 Enter 将您的选择持久化到 config.toml。
CLI 附带许多内置主题。默认主题是 langchain,一个带有 LangChain 品牌颜色的深色主题。选定的主题持久化在 [ui] 下:
用户定义的主题
在config.toml 中的 [themes.<name>] 部分下定义自定义主题。每个部分需要 label(str)。dark(bool)如果省略则默认为 false — 对于深色主题设置为 true。所有颜色字段都是可选的 — 省略的字段根据 dark 标志 fallback 到内置的深色或浅色调色板。
/theme 选择器中。
覆盖内置主题颜色
要调整内置主题的颜色而无需创建新主题,请使用[themes.<builtin-name>] 部分。仅读取颜色字段 — label 和 dark 从内置继承:
[themes.*] 部分的更改在 /reload 时生效。
自动更新
CLI 可以自动检查并安装更新。- 配置文件
- 环境变量
/update slash 命令手动检查并安装更新,这会绕过缓存并内联报告成功或失败。
升级后,CLI 在下次启动时显示“新功能”横幅,并带有指向 changelog 的链接。
在会话退出时,如果在会话期间检测到新版本,则会显示更新横幅作为提醒。
托管部署
安装脚本 支持作为 root 运行,针对 macOS MDM 工具(Kandji、Jamf 等),这些工具在最小 root 环境中执行脚本。 当id -u 为 0 时,脚本:
- 解析真实控制台用户的
HOME(通过/dev/console或/Users目录扫描) - 在每个安装步骤后将所有创建的文件
chown回目标用户
DEEPAGENTS_CLI_AUTO_UPDATE=1 或将带有 [update] auto_update = true 的 config.toml 部署到 ~/.deepagents/config.toml。要完全抑制自动更新和更新检查,请设置 DEEPAGENTS_CLI_NO_UPDATE_CHECK=1。
CLI 环境变量参考
所有 CLI 特定的环境变量都使用DEEPAGENTS_CLI_ 前缀。参见 DEEPAGENTS_CLI_ 前缀 了解前缀如何作为第三方凭证的覆盖。
启用自动 CLI 更新(
1、true 或 yes)。启用详细调试日志记录到文件。
调试日志文件的路径。
添加到 技能 containment allowlist 的冒号分隔路径。
覆盖 agent traces 的 LangSmith 项目名称。参见 使用 LangSmith 进行追踪。
设置时禁用自动更新检查。
允许的逗号分隔 shell 命令(或
recommended / all)。将用户标识符附加到 LangSmith trace 元数据。
外部编辑器
按Ctrl+X 或输入 /editor 在外部编辑器中编写 prompts。CLI 检查 $VISUAL,然后 $EDITOR,然后 fallback 到 vi(macOS/Linux)或 notepad(Windows)。GUI 编辑器(VS Code、Cursor、Zed、Sublime Text、Windsurf)自动接收 --wait 标志,因此 CLI 会阻塞直到您关闭文件。
钩子
钩子允许外部程序对 CLI 生命周期事件做出反应。在~/.deepagents/hooks.json 中配置命令,每当事件触发时,CLI 将 JSON payload 管道传输到每个匹配命令的 stdin。
钩子在后台线程中 fire-and-forget 运行 — 它们永远不会阻塞 CLI,失败会被记录而不会中断您的会话。
设置
创建~/.deepagents/hooks.json:
~/deepagents-events.log。
钩子配置
配置文件包含单个hooks 数组。每个条目具有:
要运行的命令和参数。无 shell 扩展:如果需要请使用
["bash", "-c", "..."]。要订阅的事件名称。省略或留空以接收 所有 事件。
events 过滤器,因此它接收 CLI 发出的每个事件。
Payload 格式
每个钩子命令在 stdin 上接收一个带有"event" 键 plus 事件特定字段的 JSON 对象:
事件参考
session.start
当 agent 会话开始时触发(交互和非交互模式)。
会话线程标识符。
session.end
当会话退出时触发。
会话线程标识符。
user.prompt
在交互模式下当用户提交聊天消息时触发。
无额外字段。
input.required
当 agent 需要人类输入时触发(human-in-the-loop interrupt)。
无额外字段。
permission.request
在批准对话框之前当一个或多个工具调用需要用户权限时触发。
请求批准的工具名称。
tool.error
当工具调用返回错误时触发。
出错的工具名称。
task.complete
当 agent 完成其当前任务时触发(流式循环结束 without further interrupts)。
会话线程标识符。
context.compact
在 CLI 压缩(摘要)对话上下文之前触发。
无额外字段。
执行模型
- 后台线程:钩子子进程通过
asyncio.to_thread在线程中运行,因此主事件循环永远不会被阻塞。 - 并发调度:当多个钩子匹配事件时,它们在线程池中并发运行。
- 5 秒超时:每个命令有 5 秒超时。超过此时间的命令会被杀死。
- Fire-and-forget:错误按钩子捕获并在 debug/warning 级别记录。失败的钩子永远不会崩溃或停滞 CLI。
- 懒加载:配置文件在第一次事件调度时读取一次,并在会话其余部分缓存。
- 无 shell 扩展:命令直接执行(不通过 shell)。如果您需要 shell 功能如 pipes 或变量扩展,请包装在
["bash", "-c", "..."]中。
钩子示例
将所有事件记录到文件
将所有事件记录到文件
任务完成时的桌面通知(macOS)
任务完成时的桌面通知(macOS)
Python 处理程序
Python 处理程序
编写一个从 stdin 读取 JSON payload 的处理程序脚本:
my_handler.py
~/.deepagents/hooks.json
安全注意事项
钩子遵循与 Git hooks 或 shell 别名相同的信任模型 — 任何可以写入~/.deepagents/hooks.json 的用户都可以执行任意命令。这是设计使然:
- 无命令注入:Payload 数据仅作为 JSON 流式传输到 stdin,从不流向命令行参数。
json.dumps处理转义。 - 默认无 shell:命令使用
shell=False运行,防止 shell 注入。 - 格式错误的配置:无效的 JSON 或意外的类型会产生记录的警告,而不是安全问题。
连接这些文档 到 Claude、VSCode 等 via MCP 以获取实时答案。

