本 notebook 的目标
本 notebook 展示了一个将 OpenAI 链部署到生产环境的简单示例。您可以扩展它来部署您自己的自托管模型,在那里您可以轻松定义运行模型所需的硬件资源(GPU 和 CPU)以高效地在生产中运行。在 Ray Serve 文档 中阅读更多关于可用选项(包括自动扩展)的信息。设置 Ray Serve
使用pip install ray[serve] 安装 ray。
通用框架
部署服务的通用框架如下:使用自定义提示部署 OpenAI 链的示例
从 此处 获取 OpenAI API 密钥。运行以下代码时,系统会提示您提供 API 密钥。localhost:8282 端口,我们可以发送 post 请求来获取结果。
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

