功能特性
- 高吞吐量与低延迟: 专为高效处理大量请求而设计。
- 灵活的模型支持: 适用于各种 sentence-transformer 模型。
- 可扩展性: 可轻松集成到更大的系统中,并随需求弹性扩展。
- 批量处理: 支持批量处理,实现更优、更快的推理。
- 兼容 OpenAI 的 REST API 端点: 提供与 OpenAI 兼容的 REST API 端点。
- 单行命令部署: 通过单条命令部署多个模型,高效便捷。
- 支持多种嵌入格式: 支持 binary、float16 和 float32 嵌入格式,加快检索速度。
快速开始
前置条件
请确保已安装 Python 3.10 或更高版本,并需要安装所需依赖项。通过 PyPI 安装
-
安装所需依赖项:
-
使用所需模型启动 TextEmbed 服务器:
导入
嵌入您的文档
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

