Skip to main content
PromptLayer 是第一个允许您跟踪、管理和分享 GPT 提示工程的平台。PromptLayer 作为您的代码和 OpenAI Python 库之间的中间件运行。 PromptLayer 记录所有您的 OpenAI API 请求,让您可以在 PromptLayer 控制台中搜索和浏览请求历史。 本示例展示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。 另一个示例在这里

安装 PromptLayer

使用 PromptLayer 需要安装 promptlayer 包。通过 pip 安装 promptlayer
pip install -qU  promptlayer

导入

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI

设置环境 API 密钥

您可以在 www.promptlayer.com 点击导航栏中的设置齿轮图标来创建 PromptLayer API 密钥。 将其设置为名为 PROMPTLAYER_API_KEY 的环境变量。 您还需要一个 OpenAI 密钥,名为 OPENAI_API_KEY
from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像正常使用一样使用 PromptLayerOpenAI LLM

您可以选择传入 pl_tags 以使用 PromptLayer 的标签功能跟踪您的请求。
llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")
上述请求现在应该出现在您的 PromptLayer 控制台中。

使用 PromptLayer 跟踪

如果您想使用任何 PromptLayer 跟踪功能,需要在实例化 PromptLayer LLM 时传入参数 return_pl_id 以获取请求 ID。
llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
    pl_request_id = res[0].generation_info["pl_request_id"]
    promptlayer.track.score(request_id=pl_request_id, score=100)
这允许您在 PromptLayer 控制台中跟踪模型的性能。如果您使用提示模板,也可以将模板附加到请求中。 总体而言,这为您提供了在 PromptLayer 控制台中跟踪不同模板和模型性能的机会。