ChatLiteLLM:用于基本使用的 LiteLLM 的主要 LangChain 包装器(文档)。ChatLiteLLMRouter:一个利用 LiteLLM 路由功能的ChatLiteLLM包装器(文档)。
概览
集成细节
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatLiteLLM | langchain-litellm | ❌ | ❌ | ||
ChatLiteLLMRouter | langchain-litellm | ❌ | ❌ |
模型功能
设置
要访问ChatLiteLLM 和 ChatLiteLLMRouter 模型,您需要安装 langchain-litellm 包并创建一个 OpenAI、Anthropic、Azure、Replicate、OpenRouter、Hugging Face、Together AI 或 Cohere 账户。然后,您需要获取 API 密钥并将其导出为环境变量。
凭据
您必须选择所需的 LLM 提供商,并注册以获得其 API 密钥。示例 - Anthropic
前往 Claude 控制台 注册并生成 Claude API 密钥。完成此操作后,设置ANTHROPIC_API_KEY 环境变量:
示例 - OpenAI
前往 platform.openai.com/api-keys 注册并获取 OpenAI API 密钥。完成此操作后,设置OPENAI_API_KEY 环境变量。
安装
LangChain LiteLLM 集成可在langchain-litellm 包中找到:
实例化
ChatLiteLLM
您可以通过提供一个由 LiteLLM 支持的模型名称 来实例化ChatLiteLLM 模型。
ChatLiteLLMRouter
您还可以通过定义您的模型列表来利用 LiteLLM 的路由功能,该列表遵循 LiteLLM 路由文档 中的说明。调用
无论您是实例化了ChatLiteLLM 还是 ChatLiteLLMRouter,现在都可以通过 LangChain 的 API 使用 ChatModel。
异步和流式传输功能
ChatLiteLLM 和 ChatLiteLLMRouter 还支持异步和流式传输功能:
API 参考
要详细了解所有ChatLiteLLM 和 ChatLiteLLMRouter 功能和配置,请参阅 API 参考。
在 GitHub 上编辑此页面:点击这里
通过 MCP 将这些文档连接到 Claude、VSCode 等,以获得实时答案。

