Azure Machine Learning 是一个用于构建、训练和部署机器学习模型的平台。用户可以在模型目录中探索要部署的模型类型,该目录提供来自不同提供商的基础模型和通用模型。 通常,您需要部署模型才能使用其预测(推理)。在本笔记本介绍如何使用托管在Azure Machine Learning中,在线端点用于通过实时服务部署这些模型。它们基于端点和部署的概念,允许您将生产工作负载的接口与提供服务的实现解耦。
Azure Machine Learning 端点 上的聊天模型。
设置
您必须在 Azure ML 上部署模型或部署到 Azure AI Foundry(原 Azure AI Studio),并获取以下参数:endpoint_url:端点提供的 REST 端点 URL。endpoint_api_type:将模型部署到专用端点(托管的托管基础设施)时,使用endpoint_type='dedicated'。使用按需付费产品(模型即服务)部署模型时,使用endpoint_type='serverless'。endpoint_api_key:端点提供的 API 密钥。
内容格式化器
content_formatter 参数是一个处理程序类,用于转换 AzureML 端点的请求和响应,以匹配所需的模式。由于模型目录中有各种各样的模型,每种模型处理数据的方式可能各不相同,因此提供了 ContentFormatterBase 类,允许用户按照自己的需求转换数据。提供了以下内容格式化器:
CustomOpenAIChatContentFormatter:为遵循 OpenAI API 规范的模型(如 LLaMa2-chat)格式化请求和响应数据。
langchain.chat_models.azureml_endpoint.LlamaChatContentFormatter 正在被弃用,替换为 langchain.chat_models.azureml_endpoint.CustomOpenAIChatContentFormatter。
您可以从 langchain_community.llms.azureml_endpoint.ContentFormatterBase 类派生,实现特定于您的模型的自定义内容格式化器。
示例
以下部分包含有关如何使用此类的示例:示例:使用实时端点进行聊天补全
示例:使用按需付费部署(模型即服务)进行聊天补全
model_kwargs 参数:
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

