前提条件
开始之前,请确保您拥有来自模型提供商(例如 Anthropic、OpenAI)的 API 密钥。步骤 1:安装依赖项
本指南使用 Tavily 作为示例搜索提供商,但您可以替换为任何搜索 API(例如 DuckDuckGo、SerpAPI、Brave Search)。
步骤 2:设置您的 API 密钥
- Google
- OpenAI
- Anthropic
- OpenRouter
- Fireworks
- Baseten
- Ollama
- 其他
步骤 3:创建搜索工具
步骤 4:创建深度智能体
provider:model 格式的 model 字符串,或初始化的模型实例。默认为 anthropic:claude-sonnet-4-6。请参阅 支持的模型 了解所有提供商,以及 推荐模型 了解经过测试的推荐。
- Google
- OpenAI
- Anthropic
- OpenRouter
- Fireworks
- Baseten
- Ollama
- 其他
步骤 5:运行智能体
它是如何工作的?
您的深度智能体自动:- 规划其方法:使用内置的
write_todos工具分解研究任务。 - 进行研究:通过调用
internet_search工具收集信息。 - 管理上下文:通过使用文件系统工具(
write_file、read_file)卸载大型搜索结果。 - 生成子智能体:根据需要生成子智能体,将复杂的子任务委托给专门的子智能体。
- 合成报告:将发现编译成连贯的响应。
示例
有关您可以使用深度智能体构建的智能体、模式和应用,请参阅 示例。流式传输
深度智能体具有内置的 流式传输 功能,用于使用 LangGraph 从智能体执行中获取实时更新。 这使您能够逐步观察输出,并审查和调试智能体及子智能体的工作,例如工具调用、工具结果和 LLM 响应。后续步骤
现在您已经构建了第一个深度智能体:通过 MCP 将 连接这些文档 到 Claude、VSCode 等,以获取实时答案。

