Skip to main content
本文将帮助你快速上手使用 LangChain 的 OpenAI 嵌入模型。有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考

概述

集成详情

设置

要访问 OpenAI 嵌入模型,你需要创建一个 OpenAI 账号、获取 API 密钥,并安装 langchain-openai 集成包。

凭据

前往 platform.openai.com 注册 OpenAI 并生成 API 密钥。完成后,设置 OPENAI_API_KEY 环境变量:
import getpass
import os

if not os.getenv("OPENAI_API_KEY"):
    os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter your OpenAI API key: ")
要启用模型调用的自动追踪,请设置你的 LangSmith API 密钥:
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain OpenAI 集成位于 langchain-openai 包中:
pip install -qU langchain-openai

实例化

现在我们可以实例化模型对象并生成聊天补全:
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",
    # With the `text-embedding-3` class
    # of models, you can specify the size
    # of the embeddings you want returned.
    # dimensions=1024
)
Azure OpenAI v1 API 支持langchain-openai>=1.0.1 起,OpenAIEmbeddings 可直接与 Azure OpenAI 端点配合使用,支持新的 v1 API,包括对 Microsoft Entra ID 身份验证的支持。详情请参阅下方的与 Azure OpenAI 配合使用部分。

索引与检索

嵌入模型通常用于检索增强生成(RAG)流程中,既用于索引数据,也用于后续检索。更多详细说明,请参阅我们的 RAG 教程 下面展示如何使用上面初始化的 embeddings 对象进行数据索引和检索。在本示例中,我们将在 InMemoryVectorStore 中索引并检索一个示例文档。
# Create a vector store with a sample text
from langchain_core.vectorstores import InMemoryVectorStore

text = "LangChain is the framework for building context-aware reasoning applications"

vectorstore = InMemoryVectorStore.from_texts(
    [text],
    embedding=embeddings,
)

# Use the vectorstore as a retriever
retriever = vectorstore.as_retriever()

# Retrieve the most similar text
retrieved_documents = retriever.invoke("What is LangChain?")

# show the retrieved document's content
retrieved_documents[0].page_content
'LangChain is the framework for building context-aware reasoning applications'

直接使用

在底层,向量存储和检索器的实现分别调用 embeddings.embed_documents(...)embeddings.embed_query(...) 来为 from_texts 和检索 invoke 操作中使用的文本创建嵌入向量。 你可以直接调用这些方法,以满足自己的使用场景。

嵌入单条文本

你可以使用 embed_query 嵌入单条文本或文档:
single_vector = embeddings.embed_query(text)
print(str(single_vector)[:100])  # Show the first 100 characters of the vector
[-0.019276829436421394, 0.0037708976306021214, -0.03294256329536438, 0.0037671267054975033, 0.008175

嵌入多条文本

你可以使用 embed_documents 嵌入多条文本:
text2 = (
    "LangGraph is a library for building stateful, multi-actor applications with LLMs"
)
two_vectors = embeddings.embed_documents([text, text2])
for vector in two_vectors:
    print(str(vector)[:100])  # Show the first 100 characters of the vector
[-0.019260549917817116, 0.0037612367887049913, -0.03291035071015358, 0.003757466096431017, 0.0082049
[-0.010181212797760963, 0.023419594392180443, -0.04215526953339577, -0.001532090245746076, -0.023573

与 Azure OpenAI 配合使用

Azure OpenAI v1 API 支持langchain-openai>=1.0.1 起,OpenAIEmbeddings 可直接与 Azure OpenAI 端点配合使用,支持新的 v1 API。无论嵌入托管在 OpenAI 还是 Azure 上,这都提供了统一的使用方式。对于传统的 Azure 专用实现,请继续使用 AzureOpenAIEmbeddings

使用 API 密钥调用 Azure OpenAI v1 API

要将 OpenAIEmbeddings 与 Azure OpenAI 配合使用,请将 base_url 设置为附加了 /openai/v1/ 的 Azure 端点:
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",  # Your Azure deployment name
    base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
    api_key="your-azure-api-key"
)

# Use as normal
vector = embeddings.embed_query("Hello world")

使用 Microsoft Entra ID 调用 Azure OpenAI

v1 API 新增了对 Microsoft Entra ID 身份验证的原生支持,并支持自动令牌刷新。将令牌提供者可调用对象传递给 api_key 参数:
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
from langchain_openai import OpenAIEmbeddings

# Create a token provider that handles automatic refresh
token_provider = get_bearer_token_provider(
    DefaultAzureCredential(),
    "https://cognitiveservices.azure.com/.default"
)

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",  # Your Azure deployment name
    base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
    api_key=token_provider  # Callable that handles token refresh
)

# Use as normal
vectors = embeddings.embed_documents(["Hello", "World"])
安装要求要使用 Microsoft Entra ID 身份验证,请安装 Azure Identity 库:
pip install azure-identity
在使用异步函数时,你也可以将令牌提供者可调用对象传递给 api_key 参数。此时必须从 azure.identity.aio 导入 DefaultAzureCredential:
from azure.identity.aio import DefaultAzureCredential
from langchain_openai import OpenAIEmbeddings

credential = DefaultAzureCredential()

embeddings_async = OpenAIEmbeddings(
    model="text-embedding-3-large",
    api_key=credential
)

# Use async methods when using async callable
vectors = await embeddings_async.aembed_documents(["Hello", "World"])

当使用异步可调用对象作为 API 密钥时,必须使用异步方法(aembed_queryaembed_documents)。同步方法将会报错。

API 参考

有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考