Skip to main content
本指南帮助您使用 LangChain 快速上手 AI/ML API 嵌入模型。有关 AIMLAPIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考

概述

集成详情

本地JS 支持下载量版本
AIMLAPIEmbeddingslangchain-aimlapiPyPI - DownloadsPyPI - Version

设置

要访问 AI/ML API 嵌入模型,您需要创建一个账户、获取 API 密钥,并安装 langchain-aimlapi 集成包。

凭证

前往 aimlapi.com 注册并生成 API 密钥。完成后,设置 AIMLAPI_API_KEY 环境变量:
import getpass
import os

if not os.getenv("AIMLAPI_API_KEY"):
    os.environ["AIMLAPI_API_KEY"] = getpass.getpass("Enter your AI/ML API key: ")
要启用模型调用的自动追踪,请设置您的 LangSmith API 密钥:
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"

安装

LangChain AI/ML API 集成位于 langchain-aimlapi 包中:
pip install -qU langchain-aimlapi

实例化

现在我们可以实例化嵌入模型并执行嵌入操作:
from langchain_aimlapi import AIMLAPIEmbeddings

embeddings = AIMLAPIEmbeddings(
    model="text-embedding-ada-002",
)

索引与检索

嵌入模型通常用于检索增强生成(RAG)流程。以下展示如何使用上面初始化的 embeddings 对象配合 InMemoryVectorStore 对数据进行索引和检索。
from langchain_core.vectorstores import InMemoryVectorStore

text = "LangChain is the framework for building context-aware reasoning applications"

vectorstore = InMemoryVectorStore.from_texts(
    [text],
    embedding=embeddings,
)

retriever = vectorstore.as_retriever()

retrieved_documents = retriever.invoke("What is LangChain?")
retrieved_documents[0].page_content
'LangChain is the framework for building context-aware reasoning applications'

直接使用

您可以直接调用 embed_queryembed_documents 来处理自定义嵌入场景。

嵌入单条文本

single_vector = embeddings.embed_query(text)
print(str(single_vector)[:100])

嵌入多条文本

text2 = "LangGraph is a library for building stateful, multi-actor applications with LLMs"

vectors = embeddings.embed_documents([text, text2])
for vector in vectors:
    print(str(vector)[:100])

API 参考

有关 AIMLAPIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考