Skip to main content
vLLM 可以作为服务器部署,模拟 OpenAI API 协议。这使得 vLLM 可以作为使用 OpenAI API 的应用程序的直接替代品。此服务器可以以与 OpenAI API 相同的格式进行查询。

概述

本指南将帮助您开始使用 vLLM 聊天模型,该模型利用 langchain-openai 包。有关所有 ChatOpenAI 功能和配置的详细文档,请前往 API 参考

集成详情

可序列化JS 支持下载量版本
ChatOpenAIlangchain_openaibetaPyPI - DownloadsPyPI - Version

模型功能

工具调用、多模态输入支持、token 级别流式传输等具体模型功能将取决于托管的模型。

设置

请参阅 vLLM 文档 此处 要通过 LangChain 访问 vLLM 模型,您需要安装 langchain-openai 集成包。

凭据

身份验证将取决于推理服务器的具体情况。 要启用模型调用的自动追踪,请设置您的 LangSmith API key:
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain vLLM 集成可通过 langchain-openai 包访问:
pip install -qU langchain-openai

实例化

现在我们可以实例化模型对象并生成聊天补全:
from langchain.messages import HumanMessage, SystemMessage
from langchain_openai import ChatOpenAI
inference_server_url = "http://localhost:8000/v1"

llm = ChatOpenAI(
    model="mosaicml/mpt-7b",
    api_key="your api key goes here",
    base_url=inference_server_url,
    max_tokens=5,
    temperature=0,
)

调用

messages = [
    SystemMessage(
        content="You are a helpful assistant that translates English to Italian."
    ),
    HumanMessage(
        content="Translate the following sentence from English to Italian: I love programming."
    ),
]
llm.invoke(messages)
AIMessage(content=' Io amo programmare', additional_kwargs={}, example=False)

API 参考

有关通过 langchain-openai 公开的所有功能和配置的详细文档,请前往 API 参考:python.langchain.com/api_reference/openai/chat_models/langchain_openai.chat_models.base.ChatOpenAI.html 也请参阅 vLLM 文档