设置
你需要安装 node-llama-cpp 模块的3 主版本,以便与你的本地模型进行通信。
npm
node-llama-cpp 已针对在 MacOS 平台上运行进行了调整,支持 Apple M 系列处理器的 Metal GPU。如果你需要关闭此功能或需要支持 CUDA 架构,请参阅 node-llama-cpp 的文档。
关于获取和准备 llama3 的建议,请参阅此模块的 LLM 版本的文档。
LangChain.js 贡献者注意事项:如果你想运行与此模块相关的测试,你需要将本地模型的路径放入环境变量 LLAMA_PATH 中。
用法
基本用法
在这种情况下,我们传入一个包装为消息的提示,并期望得到一个响应。系统消息
我们还可以提供系统消息,请注意,使用llama_cpp 模块时,系统消息将导致创建一个新会话。
链
此模块也可以与链一起使用,请注意,使用更复杂的链将需要足够强大的llama3 版本,例如 70B 版本。
流式传输
我们也可以使用 Llama CPP 进行流式传输,这可以使用原始的“单提示”字符串:invoke 方法,我们也可以实现流式生成,并使用 signal 来中止生成。
相关
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时解答。

