Gradient 允许通过简单的 Web API 对 LLM 进行微调并获取补全结果。
本 notebook 介绍如何将 LangChain 与 Gradient 配合使用。
导入
设置环境 API 密钥
确保从 Gradient AI 获取您的 API 密钥。您将获得 $10 的免费额度用于测试和微调不同模型。GRADIENT_ACCESS_TOKEN 和 GRADIENT_WORKSPACE_ID,以获取当前已部署的模型。使用 gradientai Python 包。
创建 Gradient 实例
您可以指定不同的参数,如模型、最大生成 token 数、温度等。 由于我们稍后希望对模型进行微调,因此选择 id 为674119b5-f19e-4856-add2-767ae7f7d7ef_model_adapter 的模型适配器,但您可以使用任何基础或可微调的模型。
创建 Prompt 模板
我们将创建一个问答 Prompt 模板。初始化 LLMChain
运行 LLMChain
提供问题并运行 LLMChain。通过微调改善结果(可选)
嗯——这个答案是错误的,旧金山 49 人队并没有获胜。 正确答案应该是达拉斯牛仔队(The Dallas Cowboys)!。
让我们通过使用 PromptTemplate 对正确答案进行微调,来提高正确答案的概率。
将这些文档连接到 Claude、VSCode 等,通过 MCP 获取实时解答。

