-
LlamaEdgeChatService为开发者提供了一个兼容 OpenAI API 的服务,通过 HTTP 请求与 LLM 进行对话。 -
LlamaEdgeChatLocal使开发者能够在本地与 LLM 对话(即将推出)。
LlamaEdgeChatService 和 LlamaEdgeChatLocal 均运行在由 WasmEdge Runtime 驱动的基础设施上,该运行时为 LLM 推理任务提供了轻量级、可移植的 WebAssembly 容器环境。
通过 API 服务进行对话
LlamaEdgeChatService 在 llama-api-server 上运行。按照 llama-api-server 快速入门中的步骤,您可以托管自己的 API 服务,只要有网络连接,就可以在任何设备上与任何您喜欢的模型对话。
以非流式模式与 LLM 对话
以流式模式与 LLM 对话
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

