设置
LLM
Predibase 通过实现 LLM 模块与 LangChain 集成。您可以在下面看到一个简短的示例,或者在 LLM > 集成 > Predibase 下查看完整的 notebook。Copy
import os
os.environ["PREDIBASE_API_TOKEN"] = "{PREDIBASE_API_TOKEN}"
from langchain_community.llms import Predibase
model = Predibase(
model="mistral-7b",
predibase_api_key=os.environ.get("PREDIBASE_API_TOKEN"),
predibase_sdk_version=None, # 可选参数(如果省略则默认为最新的 Predibase SDK 版本)
"""
可以使用 `model_kwargs` 设置新的默认"generate()"设置。例如:
{
"api_token": os.environ.get("HUGGING_FACE_HUB_TOKEN"),
"max_new_tokens": 5, # 默认为 256
}
"""
**model_kwargs,
)
"""
可以使用 `kwargs` 动态覆盖"generate()"设置。例如:
{
"temperature": 0.5, # 默认为 model_kwargs 中的值或 0.1(初始化默认值)
"max_new_tokens": 1024, # 默认为 model_kwargs 中的值或 256(初始化默认值)
}
"""
response = model.invoke("Can you recommend me a nice dry wine?", **kwargs)
print(response)
model 参数给定的基础模型上微调的 Predibase 托管和 HuggingFace 托管适配器:
Copy
import os
os.environ["PREDIBASE_API_TOKEN"] = "{PREDIBASE_API_TOKEN}"
from langchain_community.llms import Predibase
# 微调后的适配器托管在 Predibase(必须指定 adapter_version)。
model = Predibase(
model="mistral-7b",
predibase_api_key=os.environ.get("PREDIBASE_API_TOKEN"),
predibase_sdk_version=None, # 可选参数(如果省略则默认为最新的 Predibase SDK 版本)
adapter_id="e2e_nlg",
adapter_version=1,
"""
可以使用 `model_kwargs` 设置新的默认"generate()"设置。例如:
{
"api_token": os.environ.get("HUGGING_FACE_HUB_TOKEN"),
"max_new_tokens": 5, # 默认为 256
}
"""
**model_kwargs,
)
"""
可以使用 `kwargs` 动态覆盖"generate()"设置。例如:
{
"temperature": 0.5, # 默认为 model_kwargs 中的值或 0.1(初始化默认值)
"max_new_tokens": 1024, # 默认为 model_kwargs 中的值或 256(初始化默认值)
}
"""
response = model.invoke("Can you recommend me a nice dry wine?", **kwargs)
print(response)
model 参数给定的基础模型上微调的适配器:
Copy
import os
os.environ["PREDIBASE_API_TOKEN"] = "{PREDIBASE_API_TOKEN}"
from langchain_community.llms import Predibase
# 微调后的适配器托管在 HuggingFace(adapter_version 不适用且将被忽略)。
model = Predibase(
model="mistral-7b",
predibase_api_key=os.environ.get("PREDIBASE_API_TOKEN"),
predibase_sdk_version=None, # 可选参数(如果省略则默认为最新的 Predibase SDK 版本)
adapter_id="predibase/e2e_nlg",
"""
可以使用 `model_kwargs` 设置新的默认"generate()"设置。例如:
{
"api_token": os.environ.get("HUGGING_FACE_HUB_TOKEN"),
"max_new_tokens": 5, # 默认为 256
}
"""
**model_kwargs,
)
"""
可以使用 `kwargs` 动态覆盖"generate()"设置。例如:
{
"temperature": 0.5, # 默认为 model_kwargs 中的值或 0.1(初始化默认值)
"max_new_tokens": 1024, # 默认为 model_kwargs 中的值或 256(初始化默认值)
}
"""
response = model.invoke("Can you recommend me a nice dry wine?", **kwargs)
print(response)
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

