Azure Machine Learning 是一个用于构建、训练和部署机器学习模型的平台。用户可以在 Model Catalog 中探索可以部署的模型类型,该目录提供了来自不同提供商的基础性和通用目的模型。 通常,您需要部署模型以消费其预测(推理)。在本笔记本介绍了如何使用托管在 Azure ML Endpoint 上的聊天模型。Azure Machine Learning中,Online Endpoints 用于实时部署这些模型。它们基于Endpoints和Deployments的理念,允许将生产工作负载的接口与为其提供服务的实现解耦。
配置
您必须在 Azure ML 中部署一个模型 或者 Azure AI Foundry(原 Azure AI Studio),并获取以下参数:endpoint_url:由端点提供的 REST 端点 URL。endpoint_api_type:在部署到 专用端点(托管管理基础设施)时使用endpoint_type='dedicated'。在使用 按需付费 提供商(模型即服务)部署模型时,使用endpoint_type='serverless'。endpoint_api_key:由端点提供的 API 密钥
内容格式化器
content_formatter 参数是一个处理程序类,用于将 AzureML 端点的请求和响应转换为所需的模式。由于模型目录中有多种不同的模型,每种模型的数据处理方式可能各不相同,因此提供了一个 ContentFormatterBase 类以允许用户根据需要自定义数据格式化。以下内容格式化器可供使用:
CustomOpenAIChatContentFormatter:用于格式化遵循 OpenAI API 规范的请求和响应数据(如 LLaMa2-chat 模型)。
langchain.chat_models.azureml_endpoint.LlamaChatContentFormatter 正在弃用并被 langchain.chat_models.azureml_endpoint.CustomOpenAIChatContentFormatter 替代。
您可以从类 langchain_community.llms.azureml_endpoint.ContentFormatterBase 继承实现特定于您模型的自定义内容格式化器。
示例
以下部分包含如何使用此类的示例:示例:实时端点的聊天完成
示例:按需付费部署(模型即服务)的聊天完成
model_kwargs 参数:
通过 MCP 将这些文档连接到 Claude、VSCode 等,以获得实时答案:连接这些文档。

