概述
本指南将帮助您开始使用 vLLM 聊天模型,该模型利用langchain-openai 包。有关所有 ChatOpenAI 功能和配置的详细文档,请前往 API 参考。
集成详情
| 类 | 包 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatOpenAI | langchain_openai | beta | ❌ |
模型功能
工具调用、多模态输入支持、token 级别流式传输等具体模型功能将取决于托管的模型。设置
请参阅 vLLM 文档 此处。 要通过 LangChain 访问 vLLM 模型,您需要安装langchain-openai 集成包。
凭据
身份验证将取决于推理服务器的具体情况。 要启用模型调用的自动追踪,请设置您的 LangSmith API key:安装
LangChain vLLM 集成可通过langchain-openai 包访问:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
API 参考
有关通过langchain-openai 公开的所有功能和配置的详细文档,请前往 API 参考:python.langchain.com/api_reference/openai/chat_models/langchain_openai.chat_models.base.ChatOpenAI.html
也请参阅 vLLM 文档。
通过 MCP 将这些文档连接到 Claude、VSCode 等以获得实时解答。

