Konko AI 提供完全托管的 API,帮助应用开发者
- 选择适合其应用的开源或专有 LLM
- 更快构建应用,借助与主流应用框架的集成和完全托管的 API
- 微调较小的开源 LLM,以极低的成本实现行业领先的性能
- 使用 Konko AI 符合 SOC 2 标准的多云基础设施,部署生产规模的 API,满足安全性、隐私性、吞吐量和延迟 SLA,无需基础设施配置或管理
安装与设置
- 将 API 密钥设置为环境变量(
KONKO_API_KEY、OPENAI_API_KEY)
LLM
探索可用模型: 首先浏览 Konko 上的可用模型。每个模型面向不同的使用场景和能力。 另一种查找 Konko 实例上运行模型列表的方式是通过此端点。 查看使用示例。端点使用示例
-
使用 mistralai/Mistral-7B-v0.1 补全:
对话模型
查看使用示例。-
使用 Mistral-7B 进行对话补全:
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

