WatsonxLLM 是 IBM watsonx.ai 基础模型的封装器。
本示例展示了如何使用 LangChain 与 watsonx.ai 模型进行通信。
概述
集成详情
| 类 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
WatsonxLLM | langchain-ibm | ❌ | ❌ | ✅ |
设置
要访问 IBM watsonx.ai 模型,您需要创建一个 IBM watsonx.ai 账户、获取 API 密钥并安装langchain-ibm 集成包。
凭证
以下代码块定义了使用 watsonx 基础模型推理所需的凭证。 操作: 提供 IBM Cloud 用户 API 密钥。详情请参阅 管理用户 API 密钥。安装
LangChain IBM 集成位于langchain-ibm 包中:
实例化
对于不同的模型或任务,您可能需要调整模型parameters。详情请参阅文档。
WatsonxLLM 类。
注意:
在本示例中,我们将使用 project_id 和 Dallas URL。
您需要指定用于推理的 model_id。所有可用模型请参阅文档。
model_id,您也可以传入之前微调模型的 deployment_id。完整的模型微调工作流程请参阅 Working with TuneExperiment and PromptTuner。
APIClient 对象传入 WatsonxLLM 类。
ModelInference 对象传入 WatsonxLLM 类。
调用
要获取补全结果,可以直接使用字符串 prompt 调用模型。流式输出模型结果
您可以流式输出模型结果。链式调用
创建PromptTemplate 对象,负责生成随机问题。
API 参考
关于WatsonxLLM 所有功能和配置的详细文档,请访问 API 参考。
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

