HuggingFacePipeline 类在本地运行。
Hugging Face Model Hub 托管了超过 12 万个模型、2 万个数据集和 5 万个演示应用(Spaces),所有内容均为开源且公开可用,人们可以在此轻松协作,共同构建机器学习项目。
这些模型可以通过此本地 pipeline 封装器从 LangChain 调用,也可以通过 HuggingFaceHub 类调用其托管的推理端点。
使用前,您需要安装 transformers Python 包以及 pytorch。您还可以安装 xformer 以获得内存效率更高的注意力实现。
模型加载
可以通过from_model_id 方法指定模型参数来加载模型。
transformers pipeline 来加载模型。
创建链
将模型加载到内存后,您可以将其与 prompt 组合成链。skip_prompt=True 绑定到 LLM。
GPU 推理
在配备 GPU 的机器上运行时,可以通过指定device=n 参数将模型放置到指定设备上。
默认值为 -1,表示使用 CPU 推理。
如果您有多个 GPU 或模型对单个 GPU 来说过大,可以指定 device_map="auto",这需要并使用 Accelerate 库来自动确定如何加载模型权重。
注意:device 和 device_map 不应同时指定,否则可能导致不可预期的行为。
批量 GPU 推理
如果在配备 GPU 的设备上运行,也可以在 GPU 上以批处理模式运行推理。使用 OpenVINO 后端进行推理
要使用 OpenVINO 部署模型,可以指定backend="openvino" 参数以触发 OpenVINO 作为后端推理框架。
如果您有 Intel GPU,可以指定 model_kwargs={"device": "GPU"} 在其上运行推理。
使用本地 OpenVINO 模型进行推理
可以使用 CLI 将模型导出为 OpenVINO IR 格式,并从本地文件夹加载模型。--weight-format 应用 8 位或 4 位权重量化,以降低推理延迟并减小模型体积:
ov_config 如下启用:
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

