IPEX-LLM 是一个用于在 Intel CPU 和 GPU(例如带 iGPU 的本地 PC、Arc、Flex 和 Max 等独立 GPU)上以极低延迟运行 LLM 的 PyTorch 库。本示例介绍如何使用 LangChain 在 Intel CPU 上利用
ipex-llm 优化执行嵌入任务。这对于 RAG、文档问答等应用非常有帮助。
设置
sentence-transformers。
注意 对于 Windows 用户,安装ipex-llm时不需要--extra-index-url https://download.pytorch.org/whl/cpu。
基本用法
API 参考
通过 MCP 将这些文档连接 到 Claude、VSCode 等,获取实时解答。

