- 统一 API 访问:通过一个 API 连接到 250 多个 LLM(OpenAI、Claude、Gemini、Groq、Mistral)
- 低延迟:内部延迟低于 3ms,具备智能路由和负载均衡
- 企业安全:SOC 2、HIPAA、GDPR 合规,具备 RBAC 和审计日志
- 配额和成本管理:基于 Token 的配额、速率限制和全面的使用跟踪
- 可观测性:完整的请求/响应日志、指标和追踪,支持自定义保留策略
前提条件
在将 LangChain 与 TrueFoundry 集成之前,请确保您已准备:- TrueFoundry 账户:一个已配置至少一个模型提供商的 TrueFoundry 账户。请按照此处的快速入门指南操作
- 个人访问令牌:按照 TrueFoundry 令牌生成指南生成令牌
快速入门
您可以通过ChatOpenAI 接口连接到 TrueFoundry 的统一 LLM 网关。
- 将
base_url设置为您的 TrueFoundry 端点(如下所述) - 将
api_key设置为您的 TrueFoundry PAT(个人访问令牌) - 使用与统一代码片段中显示的相同
model-name
安装
基本设置
通过更新 LangChain 中的ChatOpenAI 模型连接到 TrueFoundry:
LangGraph 集成
可观测性与治理
通过指标仪表板,您可以监控和分析:- 性能指标:跟踪关键延迟指标,如请求延迟、首字时延(TTFS)和令牌间延迟(ITL),包含 P99、P90 和 P50 百分位
- 成本与令牌使用:通过每个模型的输入/输出令牌详细分解及相关费用,深入了解应用程序成本
- 使用模式:通过用户活动、模型分布和基于团队的使用情况详细分析,了解应用程序的使用方式
- 速率限制与负载均衡:配置限制、跨模型分配流量并设置回退策略
支持
如有问题、问题或支持需求:连接这些文档 到 Claude、VSCode 等,通过 MCP 获取实时答案。

