设置
您需要安装 node-llama-cpp 模块的主版本3 以与您的本地模型通信。
npm
npm
node-llama-cpp 针对 MacOS 平台进行了调优,支持 Apple M 系列处理器的 Metal GPU。如果您需要关闭此功能或需要支持 CUDA 架构,请参阅 node-llama-cpp 的文档。
有关获取和准备 llama3 的建议,请参阅此模块的 LLM 版本的文档。
LangChain.js 贡献者请注意:如果您想运行与此模块关联的测试,则需要将本地模型的路径放入环境变量 LLAMA_PATH 中。
用法
基本用法
我们需要提供本地 Llama3 模型的路径,此外,在此模块中embeddings 属性始终设置为 true。
文档嵌入
相关
通过 MCP 将这些文档连接 到 Claude, VSCode 等,以获取实时解答。

