TitanML 通过其训练、压缩和推理优化平台,帮助企业构建和部署更优质、更小型、更低成本、更高速的 NLP 模型。
我们的推理服务器 Titan Takeoff 支持通过单条命令在本地硬件上部署大语言模型。大多数嵌入模型都可以开箱即用。如果您在使用特定模型时遇到问题,请通过 hello@titanml.co 联系我们。
使用示例
以下是一些帮助您快速上手 Titan Takeoff Server 的示例。运行这些命令前,请确保 Takeoff Server 已在后台启动。更多信息请参阅启动 Takeoff 的文档页面。示例 1
基本用法,假设 Takeoff 正在您的机器上以默认端口(即 localhost:3000)运行。示例 2
使用 TitanTakeoffEmbed Python Wrapper 启动 reader。如果您在首次启动 Takeoff 时未创建任何 reader,或希望添加新的 reader,可以在初始化 TitanTakeoffEmbed 对象时进行操作,只需将要启动的模型列表作为models 参数传入即可。
您可以使用 embed.query_documents 一次嵌入多个文档。该方法的输入应为字符串列表,而 embed_query 方法则只接受单个字符串。
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

