WatsonxEmbeddings 是 IBM watsonx.ai 基础模型的封装。
本示例展示了如何使用 LangChain 与 watsonx.ai 模型进行通信。
概述
集成详情
环境配置
要访问 IBM watsonx.ai 模型,您需要创建一个 IBM watsonx.ai 账户,获取 API 密钥,并安装langchain-ibm 集成包。
凭据
此代码块定义了与 watsonx Embeddings 配合使用所需的 WML 凭据。 操作: 提供 IBM Cloud 用户 API 密钥。详细信息,请参阅 文档。安装
LangChain IBM 集成位于langchain-ibm 包中:
实例化
您可能需要根据不同的模型调整模型parameters(参数)。
WatsonxEmbeddings 类。
注意:
- 要为 API 调用提供上下文,您必须添加
project_id或space_id。更多信息请参阅文档。 - 根据您预配的服务实例所在的区域,使用其中一个特定区域的认证 URL。
project_id 和达拉斯(Dallas)URL。
您需要指定用于推理的 model_id。
APIClient 对象传递给 WatsonxEmbeddings 类。
索引与检索
嵌入模型通常用于检索增强生成(RAG)流程中,既用于数据索引阶段,也用于后续的检索阶段。如需更详细的说明,请参阅我们的 RAG 教程。 下面介绍如何使用上面初始化的embeddings 对象来索引和检索数据。在本示例中,我们将在 InMemoryVectorStore 中索引和检索一个示例文档。
直接调用
在底层,向量存储和检索器实现分别调用embeddings.embed_documents(...) 和 embeddings.embed_query(...) 为 from_texts 和检索 invoke 操作中使用的文本创建嵌入向量。
您可以直接调用这些方法,以便在自己的用例中获取嵌入向量。
嵌入单个文本
您可以使用embed_query 嵌入单个文本或文档:
嵌入多个文本
您可以使用embed_documents 嵌入多个文本:
API 参考
有关所有WatsonxEmbeddings 功能和配置的详细文档,请前往 API 参考。
连接这些文档 到 Claude、VSCode 等,通过 MCP 获取实时答案。

