⚡ 快速入门指南
(可选)为使用 LangFair 创建虚拟环境
我们建议在安装 LangFair 之前使用 venv 创建一个新的虚拟环境。请按照此处的说明操作。安装 LangFair
最新版本可从 PyPI 安装:使用示例
以下代码示例演示如何使用 LangFair 评估文本生成和摘要使用场景中的偏见与公平性风险。以下示例假设用户已为其使用场景定义了一个提示词列表prompts。
生成 LLM 响应
要生成响应,我们可以使用 LangFair 的ResponseGenerator 类。首先,我们必须创建一个 langchain LLM 对象。以下使用 ChatVertexAI,但也可以使用 LangChain 的任何 LLM 类。注意,InMemoryRateLimiter 用于避免速率限制错误。
ResponseGenerator.generate_responses 为每个提示词生成 25 个响应,这是毒性评估的惯例。
计算毒性指标
毒性指标可使用ToxicityMetrics 计算。注意,torch.device 是可选的,如果有 GPU 可用,应使用它来加速毒性计算。
计算刻板印象指标
刻板印象指标可使用StereotypeMetrics 计算。
生成反事实响应并计算指标
我们可以使用CounterfactualGenerator 生成反事实响应。
CounterfactualMetrics 轻松计算。
替代方案:使用 AutoEval 进行半自动评估
为简化文本生成和摘要使用场景的评估,AutoEval 类通过两行代码完成上述所有步骤的多步骤流程。
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

