gemini-2.5-pro、gemini-2.5-flash 等。
它还提供了一些非 Google 模型,例如 Anthropic’s Claude。
这将帮助您开始使用 ChatVertexAI 聊天模型。有关所有 ChatVertexAI 功能和配置的详细文档,请访问 API 参考。
此库将被弃用此库将被 ChatGoogle 库取代。
新的实现应使用 ChatGoogle 库,现有的实现应考虑迁移。
概览
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatVertexAI | @langchain/google-vertexai | ✅ | ✅ |
模型功能
请参阅下表标题中的链接,以获取有关如何使用特定功能的指南。| 工具调用 | 结构化输出 | 图像输入 | 音频输入 | 视频输入 | Token 级流式传输 | Token 使用情况 | Logprobs |
|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
设置
LangChain.js 支持两种不同的身份验证方法,具体取决于您是在 Node.js 环境中运行还是在 Web 环境中运行。它还支持 Vertex AI Express Mode 使用的身份验证方法(使用任一包)。 要访问ChatVertexAI 模型,您需要在 Google Cloud Platform (GCP) 账户中设置 Google VertexAI,保存凭证文件,并安装 @langchain/google-vertexai 集成包。
凭证
前往您的 GCP 账户 并生成凭证文件。完成后,设置GOOGLE_APPLICATION_CREDENTIALS 环境变量:
GOOGLE_VERTEX_AI_WEB_CREDENTIALS 环境变量设置为 JSON 字符串化对象,并安装 @langchain/google-vertexai-web 包:
@langchain/google-vertexai 或 @langchain/google-vertexai-web 包。
然后您可以前往 Express Mode API 密钥页面,并将您的 API 密钥设置在 GOOGLE_API_KEY 环境变量中:
安装
LangChainChatVertexAI 集成位于 @langchain/google-vertexai 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
使用 Google 搜索检索进行工具调用
可以使用 Google 搜索工具调用模型,您可以使用该工具通过真实世界的信息来落地(ground)内容生成,并减少幻觉。gemini-2.0-flash-exp 目前不支持 Grounding。
您可以选择使用 Google 搜索或使用自定义数据存储来进行 Grounding。以下是两者的示例:
Google 搜索检索
使用 Google 搜索的 Grounding 示例:使用数据存储的 Google 搜索检索
首先,设置您的数据存储(这是一个示例数据存储的架构):| ID | Date | Team 1 | Score | Team 2 |
|---|---|---|---|---|
| 3001 | 2023-09-07 | Argentina | 1 - 0 | Ecuador |
| 3002 | 2023-09-12 | Venezuela | 1 - 0 | Paraguay |
| 3003 | 2023-09-12 | Chile | 0 - 0 | Colombia |
| 3004 | 2023-09-12 | Peru | 0 - 1 | Brazil |
| 3005 | 2024-10-15 | Argentina | 6 - 0 | Bolivia |
projectId 和 datastoreId 变量)
上下文缓存
Vertex AI 提供上下文缓存功能,通过在多个 API 请求中存储和重用长消息内容块来帮助优化成本。当您有冗长的对话历史记录或在交互中频繁出现的消息片段时,这特别有用。 要使用此功能,首先按照此官方指南创建一个上下文缓存。 创建缓存后,您可以将其 id 作为运行时参数传入,如下所示:API 参考
有关所有 ChatVertexAI 功能和配置的详细文档,请访问 API 参考。将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时答案。

