任意模型的单一 API
无论提供商如何,LangChain 的每个聊天模型都实现相同的接口。这意味着您可以:什么是提供程序?
提供程序是指托管 AI 模型并通过 API 接口公开的公司或平台。示例包括 OpenAI、Anthropic、Google 和 AWS Bedrock。 在 LangChain 中,每个提供程序都有一个专用的 集成包(例如langchain-openai、langchain-anthropic),该包实现了该提供程序模型的标准 LangChain 接口。这意味着:
- 为每个提供程序提供专用包,并进行适当的版本管理和依赖项管理
- 在需要时使用特定于提供商的功能(例如 OpenAI 的 Responses API、Anthropic 的扩展思考)
- 通过环境变量自动处理 API 密钥
查找模型名称
每个提供商支持特定的模型名称,您在初始化聊天模型时需要传递这些名称。有以下两种方式指定模型:init_chat_model 时,如果模型名称明确,则可以省略提供程序前缀(例如,“gpt-5.4”解析为 OpenAI)。
要查找提供商可用的模型名称,请参阅提供商自己的文档。以下是一些流行的提供商:
立即使用新模型
由于 LangChain 提供程序包直接将模型名称传递给提供商的 API,因此您可以立即使用提供商发布的任何新模型——无需更新 LangChain。只需传递新的模型名称:模型功能
不同的提供商和模型支持不同的功能。 要查看聊天模型集成及其功能,请参阅 聊天模型集成页面。路由器和代理
路由器(也称为代理或网关)通过单一 API 和凭证为您提供多个提供商的访问权限。它们可以简化计费、让您无需更改集成即可切换模型,并提供自动回退和负载均衡等功能。| 提供商 | 集成 | 描述 |
|---|---|---|
| OpenRouter | ChatOpenRouter | 统一访问来自 OpenAI、Anthropic、Google 和 Meta 等提供商的模型 |
| LiteLLM | ChatLiteLLM | 通过路由、回退和花费跟踪提供与 100 多个提供商的统一接口 |
- 使用单一 API 密钥和计费账户访问多个提供商
- 动态切换模型而无需管理多个提供商凭证
- 利用自动回退模型,如果主模型失败则会自动重试其他模型
兼容 OpenAI 的端点
许多提供商提供了与 OpenAI Chat Completions API 兼容的端点。您可以使用带有自定义base_url 的 ChatOpenAI 连接到这些端点:
下一步
Models guide
学习如何使用模型:调用、流式传输、批处理、工具调用等。
Chat model integrations
浏览所有聊天模型集成及其功能。
All providers
查看完整的提供程序包和集成列表。
Agents
构建使用模型作为推理引擎的代理。
通过 MCP 将这些文档连接到 Claude、VSCode 等,以获取实时答案。

