Databricks Lakehouse 平台将数据、分析和 AI 统一在同一平台上。本指南提供了 Databricks LLM 模型 的快速入门概述。有关所有功能和配置的详细文档,请参阅 API 参考。
概述
Databricks LLM 类封装了以下两种端点类型之一托管的补全端点:
- Databricks 模型服务,推荐用于生产和开发,
- 集群驱动程序代理应用,推荐用于交互式开发。
限制
Databricks LLM 类是遗留实现,在功能兼容性方面存在若干限制。
- 仅支持同步调用,不支持流式或异步 API。
- 不支持
batchAPI。
ChatDatabricks 支持 ChatModel 的所有 API,包括流式、异步、批量等。
设置
要访问 Databricks 模型,您需要创建 Databricks 账户、配置凭证(仅在 Databricks 工作区外部时需要),并安装所需的包。凭证(仅在 Databricks 外部时需要)
如果您在 Databricks 内部运行 LangChain 应用,可以跳过此步骤。 否则,您需要手动将 Databricks 工作区主机名和个人访问令牌分别设置为DATABRICKS_HOST 和 DATABRICKS_TOKEN 环境变量。请参阅身份验证文档了解如何获取访问令牌。
Databricks 类时传入这些参数。
安装
LangChain Databricks 集成位于langchain-community 包中。此外,运行本 notebook 中的代码还需要 mlflow >= 2.9。
封装模型服务端点
前提条件
- 已将 LLM 注册并部署至 Databricks 服务端点。
- 您对该端点具有”可查询”权限。
- 输入:
[{"name": "prompt", "type": "string"}, {"name": "stop", "type": "list[string]"}] - 输出:
[{"type": "string"}]
调用
转换输入和输出
有时您可能希望封装一个模型签名不兼容的服务端点,或者想要插入额外的配置。您可以使用transform_input_fn 和 transform_output_fn 参数来定义额外的前/后处理逻辑。
将这些文档连接到 Claude、VSCode 等工具,通过 MCP 获取实时答案。

