LangChain 的 LLMOps
Portkey 为 LangChain 带来了生产就绪能力。使用 Portkey,您可以:- 通过统一 API 连接 150 多种模型,
- 查看所有请求的 42 多个指标和日志,
- 启用语义缓存以降低延迟和成本,
- 为失败的请求实现自动重试和回退,
- 为请求添加自定义标签以进行更好的跟踪和分析,以及 更多。
快速入门 - Portkey 与 LangChain
由于 Portkey 与 OpenAI 签名完全兼容,您可以通过ChatOpenAI 接口连接到 Portkey AI 网关。
- 将
base_url设置为PORTKEY_GATEWAY_URL - 使用
createHeaders辅助方法添加default_headers以使用 Portkey 所需的 headers。
ChatOpenAI 模型来连接到 Portkey AI 网关
provider。Portkey 还将开始在您的账户中记录所有请求,使调试变得非常简单。
通过 AI 网关使用 150 多种模型
AI 网关的强大之处在于您可以使用上面的代码片段连接到通过 AI 网关支持的 20 多个提供商的 150 多种模型。 让我们修改上面的代码以调用 Anthropic 的claude-3-opus-20240229 模型。
Portkey 支持**虚拟密钥**,这是在安全保险库中存储和管理 API 密钥的简便方式。让我们尝试使用虚拟密钥进行 LLM 调用。您可以导航到 Portkey 中的虚拟密钥选项卡并为 Anthropic 创建新密钥。
virtual_key 参数设置正在使用的 AI 提供商的认证和提供商。在我们的案例中,我们使用的是 Anthropic 虚拟密钥。
注意,api_key 可以留空,因为该认证不会被使用。
ChatOpenAI 类,使其成为调用任何提供商和任何模型的单一接口。
高级路由 - 负载均衡、回退、重试
Portkey AI 网关通过配置优先的方式为 LangChain 带来了负载均衡、回退、实验和金丝雀测试等能力。 让我们举一个示例,我们可能希望在gpt-4 和 claude-opus 之间以 50:50 的比例分配流量来测试两个大型模型。对此的网关配置如下:
gpt-4 和 claude-3-opus-20240229。
您可以在 此处 找到更多配置示例。
追踪链和 Agent
Portkey 的 LangChain 集成为您提供了对 Agent 运行的完整可见性。让我们以 流行的 Agentic 工作流 为例。 我们只需像上面那样修改ChatOpenAI 类以使用 AI 网关。
其他文档可在此处找到:
- 可观测性 - portkey.ai/docs/product/observability-modern-monitoring-for-llms
- AI 网关 - portkey.ai/docs/product/ai-gateway-streamline-llm-integrations
- 提示库 - portkey.ai/docs/product/prompt-library
将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

