agentevals 包提供了用于智能体轨迹的预构建评估器。您可以通过执行轨迹匹配(确定性比较)或使用LLM 裁判(定性评估)来进行评估:
安装 AgentEvals
轨迹匹配评估器
AgentEvals 提供了create_trajectory_match_evaluator 函数,用于将您的智能体轨迹与参考轨迹进行匹配。有四种模式:
| 模式 | 描述 | 用例 |
|---|---|---|
strict | 消息结构和工具调用顺序完全相同(消息内容可以不同) | 测试特定序列(例如,授权前的策略查找) |
unordered | 消息结构和工具调用与参考相同,但工具调用可以按任意顺序发生 | 验证信息检索,当顺序无关紧要时 |
subset | 智能体仅调用参考中的工具(无额外工具) | 确保智能体不超过预期范围 |
superset | 智能体至少调用参考中的工具(允许额外工具) | 验证已采取最低要求的操作 |
get_weather 工具的智能体:
严格匹配
严格匹配
strict 模式确保轨迹包含相同顺序的相同消息和工具调用,尽管允许消息内容存在差异。当您需要强制执行特定的操作序列时(例如,要求在授权前进行策略查找),这非常有用。无序匹配
无序匹配
unordered 模式允许工具调用按任意顺序进行。当您想验证是否检索了特定信息但不关心顺序时,这很有帮助。例如,一个智能体使用不同的工具调用来检查城市的天气和事件。子集和超集匹配
子集和超集匹配
superset 和 subset 模式匹配部分轨迹。superset 模式验证智能体至少调用了参考轨迹中的工具,允许额外的工具调用。subset 模式确保智能体没有调用参考之外的任何工具。您还可以设置
tool_args_match_mode 属性和/或 tool_args_match_overrides 来自定义评估器如何考虑实际轨迹与参考轨迹中工具调用的相等性。默认情况下,只有对相同工具使用相同参数的工具调用才被视为相等。访问仓库了解更多详情。LLM 作为裁判评估器
您可以使用 LLM 通过create_trajectory_llm_as_judge 函数来评估智能体的执行路径。与轨迹匹配评估器不同,它不需要参考轨迹,但如果有的话也可以提供。
无参考轨迹
无参考轨迹
带参考轨迹
带参考轨迹
如果您有参考轨迹,请使用预构建的
TRAJECTORY_ACCURACY_PROMPT_WITH_REFERENCE 提示:有关如何配置 LLM 评估轨迹的更多选项,请访问仓库。
异步支持
所有agentevals 评估器都支持 Python asyncio。异步版本可通过在函数名称中的 create_ 后添加 async 来获得。
异步裁判和评估器示例
异步裁判和评估器示例
在 LangSmith 中运行评估
为了跟踪随时间变化的实验,请将评估器结果记录到 LangSmith。首先,设置所需的环境变量:evaluate 函数。
使用 pytest 集成
使用 pytest 集成
使用 evaluate 函数
使用 evaluate 函数
创建一个 LangSmith 数据集 并使用
evaluate 函数。数据集必须具有以下模式:- input:
{"messages": [...]}用于调用智能体的输入消息。 - output:
{"messages": [...]}智能体输出中的预期消息历史。对于轨迹评估,您可以选择仅保留助手消息。
通过 MCP 将这些文档连接到 Claude、VSCode 等,以获取实时答案。

