Skip to main content
聊天模型 是使用一系列 消息 作为输入并返回消息作为输出的语言模型

精选模型

虽然这些 LangChain 类支持所指的高级功能,但您可能需要参考特定提供商的文档以了解哪些托管模型或后端支持该功能。
模型工具调用结构化输出多模态
ChatOpenAI
ChatAnthropic
ChatVertexAI(已弃用)
ChatGoogleGenerativeAI
AzureChatOpenAI
ChatGroq
ChatBedrock
ChatAmazonNova
ChatHuggingFace
ChatOllama
ChatWatsonx
ChatXAI
ChatNVIDIA
ChatCohere
ChatMistralAI
ChatTogether
ChatFireworks
ChatLlamaCpp
ChatDeepSeek
ChatDatabricks
ChatPerplexity
ChatOpenRouter
ChatLiteLLM

路由器与代理

路由器和代理让您通过单个 API 和凭证访问来自多个提供商的模型。它们可以简化计费,让您无需更改集成即可在模型之间切换,并提供自动回退等功能。
提供商集成描述
OpenRouterChatOpenRouter统一访问来自 OpenAI、Anthropic、Google、Meta 等的模型
LiteLLMChatLiteLLM用于 OpenAI、Anthropic、Azure、Hugging Face 等的统一接口,具有路由和回退功能

聊天完成 API

某些模型提供商提供与 OpenAI 的 聊天完成 API 兼容的端点。在这种情况下,您可以使用 ChatOpenAI 配合自定义 base_url 连接到这些端点以实现基本聊天功能。
ChatOpenAI 仅针对 官方 OpenAI API 规范。来自第三方提供商的非标准响应字段(例如 reasoning_contentreasoningreasoning_details不会被提取或保留。当您需要访问非标准功能时,请使用特定提供商的包。例如,OpenRouter 拥有专用的 LangChain 集成。请参阅 ChatOpenRouter 指南 了解设置和用法。

所有聊天模型

Abso

AI21 Labs

AI/ML API

Alibaba Cloud PAI EAS

Amazon Nova

Anthropic

AzureAIOpenAIApiChatModel

Azure OpenAI

Azure ML 端点

Baichuan Chat

Baidu Qianfan

Baseten

AWS Bedrock

Cerebras

CloudflareWorkersAI

Cohere

ContextualAI

Coze Chat

Dappier AI

Databricks

DeepInfra

DeepSeek

Eden AI

EverlyAI

Featherless AI

Fireworks

ChatFriendli

Google Gemini

Google Cloud Vertex AI

GPTRouter

DigitalOcean Gradient

GreenNode

Groq

ChatHuggingFace

IBM watsonx.ai

JinaChat

Kinetica

Konko

LiteLLM

Llama 2 聊天

Llama API

LlamaEdge

Llama.cpp

maritalk

MiniMax

MistralAI

MLX

ModelScope

Moonshot

Naver

Nebius

Netmind

NVIDIA AI Endpoints

ChatOCIModelDeployment

OCIGenAI

ChatOctoAI

Ollama

OpenAI

OpenRouter

Outlines

Perplexity

Pipeshift

ChatPredictionGuard

PremAI

PromptLayer ChatOpenAI

Qwen QwQ

Qwen

Reka

RunPod 聊天模型

SambaNova

ChatSeekrFlow

Snowflake Cortex

SparkLLM 聊天

Nebula (Symbl.ai)

Tencent Hunyuan

Together

Tongyi Qwen

Upstage

vLLM 聊天

Volc Engine Maas

ChatWriter

xAI

Xinference

YandexGPT

ChatYI

Yuan2.0

ZHIPU AI

如果您想贡献集成,请参阅 贡献集成