ChatLiteLLM:LiteLLM 基本用法的主要 LangChain 封装器(文档)。ChatLiteLLMRouter:利用 LiteLLM 路由器的ChatLiteLLM封装器(文档)。
概述
集成详情
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatLiteLLM | langchain-litellm | ❌ | ❌ | ||
ChatLiteLLMRouter | langchain-litellm | ❌ | ❌ |
模型功能
设置
要访问ChatLiteLLM 和 ChatLiteLLMRouter 模型,您需要安装 langchain-litellm 包,并创建 OpenAI、Anthropic、Azure、Replicate、OpenRouter、Hugging Face、Together AI 或 Cohere 账户。然后,您需要获取 API 密钥并将其导出为环境变量。
凭据
您需要选择想使用的 LLM 提供商并在其平台注册,以获取 API 密钥。示例 - Anthropic
前往 Claude 控制台注册并生成 Claude API 密钥。完成后,设置ANTHROPIC_API_KEY 环境变量:
示例 - OpenAI
前往 platform.openai.com/api-keys 注册 OpenAI 并生成 API 密钥。完成后,设置 OPENAI_API_KEY 环境变量。安装
LangChain LiteLLM 集成位于langchain-litellm 包中:
实例化
ChatLiteLLM
您可以通过提供 LiteLLM 支持的model 名称来实例化 ChatLiteLLM 模型。
ChatLiteLLMRouter
您也可以通过按此处所述定义模型列表,来利用 LiteLLM 的路由功能。调用
无论您实例化的是ChatLiteLLM 还是 ChatLiteLLMRouter,现在都可以通过 LangChain 的 API 使用该聊天模型。
异步与流式功能
ChatLiteLLM 和 ChatLiteLLMRouter 还支持异步和流式功能:
API 参考
有关ChatLiteLLM 和 ChatLiteLLMRouter 所有功能和配置的详细文档,请前往 API 参考:github.com/langchain-ai/langchain-litellm
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

