Azure OpenAI 与 OpenAIAzure OpenAI 是指托管在 Microsoft Azure 平台上的 OpenAI 模型。OpenAI 也提供其自己的模型 API。要直接访问 OpenAI 服务,请使用
ChatOpenAI 集成。Azure OpenAI v1 APIAzure OpenAI 的 v1 API(2025 年 8 月正式发布)允许您直接将
ChatOpenAI 与 Azure 端点配合使用。这提供了统一的接口和对 Microsoft Entra ID 身份验证的原生支持,并可自动刷新令牌。有关将 ChatOpenAI 与 Azure v1 API 配合使用的详情,请参阅 ChatOpenAI Azure 部分。AzureChatOpenAI 目前仍支持传统 Azure OpenAI API 版本和需要 Azure 特定配置的场景,但我们建议今后使用 ChatOpenAI 或 LangChain Azure AI 中的 AzureAIChatCompletionsModel。AzureChatOpenAI 与 ChatOpenAI 共享相同的底层基础实现,后者直接与 OpenAI 服务交互。本页面作为验证身份并将 Azure OpenAI 服务连接到 LangChain 聊天模型的快速入门指南。访问 ChatOpenAI 文档了解可用功能的详情,或前往 AzureChatOpenAI API 参考。概述
集成详情
| 类 | 包 | 可序列化 | JS/TS 支持 | 下载量 | 最新版本 |
|---|---|---|---|---|---|
AzureChatOpenAI | langchain-openai | beta | ✅ (npm) |
模型功能
设置
要访问AzureChatOpenAI 模型,您需要创建 Azure 账户、创建 Azure OpenAI 模型的部署、获取部署的名称和端点、获取 Azure OpenAI API 密钥,并安装 langchain-openai 集成包。
安装
凭据
请访问 Azure 文档创建您的部署并生成 API 密钥。完成后,设置AZURE_OPENAI_API_KEY 和 AZURE_OPENAI_ENDPOINT 环境变量:
实例化
现在我们可以实例化模型对象并生成聊天补全。- 将
azure_deployment替换为您的部署名称, - 您可以在此处找到最新支持的
api_version:learn.microsoft.com/en-us/azure/ai-services/openai/reference。
调用
流式传输用量元数据
OpenAI 的聊天补全 API 默认不流式传输 Token 用量统计信息(请参阅此处的 API 参考)。 要在使用ChatOpenAI 或 AzureChatOpenAI 流式传输时获取 Token 计数,请将 stream_usage=True 设置为初始化参数或调用时参数:
指定模型版本
Azure OpenAI 响应包含model_name 响应元数据属性,即用于生成响应的模型名称。但与原生 OpenAI 响应不同,它不包含在 Azure 部署中设置的模型具体版本,例如无法区分 gpt-35-turbo-0125 和 gpt-35-turbo-0301。这使得难以知道使用哪个版本的模型生成了响应,从而可能导致例如使用 OpenAICallbackHandler 计算总成本时出现错误。
为解决此问题,您可以向 AzureChatOpenAI 类传递 model_version 参数,该参数将添加到 LLM 输出的模型名称中。这样您就可以轻松区分不同版本的模型。
API 参考
有关所有功能和配置选项的详细文档,请访问AzureChatOpenAI API 参考。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

