- 🔬 为快速和生产使用场景构建
- 🚂 支持 llama3、qwen2、gemma 等以及许多量化版本 完整列表
- ⛓️ 与 OpenAI 兼容的 API
- 💬 内置类 ChatGPT 的 UI
- 🔥 使用最先进的推理后端加速 LLM 解码
- 🌥️ 支持企业级云部署(Kubernetes、Docker 和 BentoCloud)
安装与设置
通过 PyPI 安装 OpenLLM 包:LLM
OpenLLM 支持各种开源 LLMs 以及用户自己微调的 LLMs。使用openllm model 命令查看所有为 OpenLLM 预优化的可用模型。
封装
有一个 OpenLLM 封装,支持与使用 OpenLLM 运行的服务器交互:OpenLLM 服务器封装
此封装支持与 OpenLLM 的与 OpenAI 兼容的端点交互。 运行模型:使用方法
有关 OpenLLM 封装的更详细使用说明,请参阅 示例 notebook将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

