- 🔬 专为快速生产使用而构建
- 🚂 支持 llama3、qwen2、gemma 等多种模型及多种量化版本(完整列表)
- ⛓️ 兼容 OpenAI 的 API
- 💬 内置类 ChatGPT 界面
- 🔥 通过最先进的推理后端加速 LLM 解码
- 🌥️ 已为企业级云部署做好准备(支持 Kubernetes、Docker 和 BentoCloud)
安装
通过 PyPI 安装openllm:
本地启动 OpenLLM 服务器
使用openllm hello 命令启动 LLM 服务器:
包装器
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

