适用于任何模型的单一 API
每个 LangChain 聊天模型,无论提供商如何,都实现相同的接口。这意味着您可以:什么是提供商?
提供商是托管 AI 模型并通过 API 公开它们的公司或平台。示例包括 OpenAI、Anthropic、Google 和 AWS Bedrock。 在 LangChain 中,每个提供商都有一个专用的集成软件包(例如langchain-openai、langchain-anthropic),该软件包为该提供商的模型实现标准的 LangChain 接口。这意味着:
- 每个提供商都有专用软件包,具有适当的版本控制和依赖管理
- 当您需要时,可以使用提供商特定功能(例如 OpenAI 的 Responses API、Anthropic 的扩展思维)
- 通过环境变量自动处理 API 密钥
查找模型名称
每个提供商都支持特定的模型名称,您在初始化聊天模型时传递这些名称。有两种方法可以指定模型:init_chat_model 和 provider:model 格式时,LangChain 会自动解析提供商并加载正确的集成软件包。如果模型名称是明确的(例如,"gpt-5.4" 解析为 OpenAI),您也可以省略提供商前缀。
要查找提供商的可用模型名称,请参阅提供商自己的文档。以下是一些流行的提供商:
立即使用新模型
因为 LangChain 提供商软件包将模型名称直接传递给提供商的 API,所以您可以在提供商发布新模型的那一刻立即使用它们——无需更新 LangChain。只需传递新的模型名称:模型功能
不同的提供商和模型支持不同的功能。 有关聊天模型集成及其功能的列表,请参阅聊天模型集成页面。路由器和代理
路由器(也称为代理或网关)使您能够通过单一 API 和凭据访问来自多个提供商的模型。它们可以简化计费,让您在不更改集成的情况下在模型之间切换,并提供自动故障转移和负载均衡等功能。| 提供商 | 集成 | 描述 |
|---|---|---|
| OpenRouter | ChatOpenRouter | 统一访问来自 OpenAI、Anthropic、Google、Meta 等的模型 |
- 使用单一 API 密钥和计费账户访问多个提供商
- 动态切换模型而无需管理多个提供商凭据
- 使用故障转移模型,如果主模型失败,会自动使用不同的模型重试
OpenAI 兼容端点
许多提供商提供与 OpenAI 的聊天补全 API 兼容的端点。您可以使用ChatOpenAI 和自定义 base_url 连接到这些端点:
下一步
模型指南
学习如何使用模型:调用、流式传输、批处理、工具调用等。
聊天模型集成
浏览所有聊天模型集成及其功能。
所有提供商
查看提供商软件包和集成的完整列表。
代理
构建使用模型作为其推理引擎的代理。

