Skip to main content
OpenVINO™ 是一个用于优化和部署 AI 推理的开源工具包。OpenVINO™ Runtime 支持多种硬件设备,包括 x86 和 ARM CPU 以及 Intel GPU。它有助于提升计算机视觉、自动语音识别、自然语言处理及其他常见任务中的深度学习性能。 Hugging Face 嵌入模型可通过 OpenVINOEmbeddings 类在 OpenVINO 上运行。如果您有 Intel GPU,可以指定 model_kwargs={"device": "GPU"} 以在其上运行推理。
pip install -U-strategy eager "optimum[openvino,nncf]" --quiet
from langchain_community.embeddings import OpenVINOEmbeddings
model_name = "sentence-transformers/all-mpnet-base-v2"
model_kwargs = {"device": "CPU"}
encode_kwargs = {"mean_pooling": True, "normalize_embeddings": True}

ov_embeddings = OpenVINOEmbeddings(
    model_name_or_path=model_name,
    model_kwargs=model_kwargs,
    encode_kwargs=encode_kwargs,
)
text = "This is a test document."
query_result = ov_embeddings.embed_query(text)
query_result[:3]
[-0.048951778560876846, -0.03986183926463127, -0.02156277745962143]
doc_result = ov_embeddings.embed_documents([text])

导出 IR 模型

可以使用 OVModelForFeatureExtraction 将您的嵌入模型导出为 OpenVINO IR 格式,并从本地文件夹加载该模型。
from pathlib import Path

ov_model_dir = "all-mpnet-base-v2-ov"
if not Path(ov_model_dir).exists():
    ov_embeddings.save_model(ov_model_dir)
ov_embeddings = OpenVINOEmbeddings(
    model_name_or_path=ov_model_dir,
    model_kwargs=model_kwargs,
    encode_kwargs=encode_kwargs,
)
Compiling the model to CPU ...

使用 OpenVINO 运行 BGE

我们还可以通过 OpenVINOBgeEmbeddings 类在 OpenVINO 上访问 BGE 嵌入模型。
from langchain_community.embeddings import OpenVINOBgeEmbeddings

model_name = "BAAI/bge-small-en"
model_kwargs = {"device": "CPU"}
encode_kwargs = {"normalize_embeddings": True}
ov_embeddings = OpenVINOBgeEmbeddings(
    model_name_or_path=model_name,
    model_kwargs=model_kwargs,
    encode_kwargs=encode_kwargs,
)
embedding = ov_embeddings.embed_query("hi this is harrison")
len(embedding)
384
更多信息请参阅: