概述
集成详情
| 类 | 包 | 可序列化 | [JS 支持] | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatXinference | langchain-xinference | ❌ | ✅ | ✅ | ✅ |
模型功能
设置
通过 PyPI 安装Xinference:
在本地或分布式集群中部署 Xinference
本地部署时,运行xinference。
要在集群中部署 Xinference,首先使用 xinference-supervisor 启动 Xinference supervisor。您也可以使用 -p 选项指定端口,使用 -H 选项指定主机。默认端口为 8080,默认主机为 0.0.0.0。
然后,在每台要运行 Xinference worker 的服务器上使用 xinference-worker 启动 worker。
更多信息请参阅 Xinference 的 README 文件。
封装器
要将 Xinference 与 LangChain 一起使用,您需要先启动一个模型。您可以使用命令行界面(CLI)来完成此操作:安装
LangChain Xinference 集成位于langchain-xinference 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
API 参考
有关所有 ChatXinference 功能和配置的详细文档,请前往 API 参考:github.com/TheSongg/langchain-xinference通过 MCP 将这些文档连接到 Claude、VSCode 等以获得实时解答。

