Databricks Lakehouse 平台将数据、分析和人工智能统一在一个平台上。本指南提供了快速入门 Databricks LLM 模型的概述。如需所有功能和配置的详细文档,请前往 API 参考。
概述
Databricks LLM 类封装了一个补全端点,该端点托管为以下两种端点类型之一:
- Databricks Model Serving,推荐用于生产和开发,
- 集群驱动代理应用(Cluster driver proxy app),推荐用于交互式开发。
限制
Databricks LLM 类是遗留实现,在功能兼容性方面存在若干限制。
- 仅支持同步调用。不支持流式传输或异步 API。
- 不支持
batchAPI。
ChatDatabricks 支持 ChatModel 的所有 API,包括流式传输、异步、批处理等。
设置
要访问 Databricks 模型,您需要创建一个 Databricks 账户,设置凭据(仅在 Databricks 工作区外部时需要),并安装所需的软件包。凭据(仅在 Databricks 外部时)
如果您在 Databricks 内部运行 LangChain 应用,可以跳过此步骤。 否则,您需要手动将 Databricks 工作区主机名和个人访问令牌分别设置为DATABRICKS_HOST 和 DATABRICKS_TOKEN 环境变量。有关如何获取访问令牌的说明,请参阅 身份验证文档。
Databricks 类时传递这些参数。
安装
LangChain Databricks 集成位于langchain-community 软件包中。此外,运行此笔记本中的代码需要 mlflow >= 2.9。
封装模型服务端点
前提条件
- 已注册并将 LLM 部署到 Databricks 服务端点。
- 您拥有该端点的“可查询”(Can Query)权限。
- 输入:
[{"name": "prompt", "type": "string"}, {"name": "stop", "type": "list[string]"}] - 输出:
[{"type": "string"}]
调用
转换输入和输出
有时您可能希望封装具有不兼容模型签名的服务端点,或者希望插入额外的配置。您可以使用transform_input_fn 和 transform_output_fn 参数来定义额外的预处理/后处理逻辑。
连接这些文档 至 Claude、VSCode 等,通过 MCP 获取实时答案。

