Skip to main content
在某些情况下,您可能希望在代理的决策过程中引入人类参与。LangChain 提供了多种方法来实现这一点。

示例:人工验证

以下是一个简单的示例,展示如何在代理的输出中引入人工验证:
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

# 定义提示模板
prompt = PromptTemplate(template="请生成一个答案:{input}")

# 创建链
chain = LLMChain(llm=llm, prompt=prompt)

# 运行链
output = chain.run("输入内容")

# 人工验证
if human_verify(output):
    print("验证通过")
else:
    print("验证失败")

示例:人工反馈

您还可以收集用户的反馈,并将其用于改进模型:
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate

# 定义提示模板
prompt = PromptTemplate(template="请生成一个答案:{input}")

# 创建链
chain = LLMChain(llm=llm, prompt=prompt)

# 运行链
output = chain.run("输入内容")

# 收集反馈
feedback = collect_feedback(output)
print(feedback)
人类参与可以显著提高生成内容的质量和可靠性。