gemini-2.5-pro、gemini-2.5-flash 等。
它还提供了一些非 Google 模型,例如 Anthropic 的 Claude。
这将帮助您开始使用 ChatVertexAI 聊天模型。有关所有 ChatVertexAI 功能和配置的详细文档,请前往 API 参考。
此库将被弃用此库将被 ChatGoogle 库取代。
新实现应使用 ChatGoogle 库,
现有实现应考虑迁移。
概述
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatVertexAI | @langchain/google-vertexai | ✅ | ✅ |
模型功能
请参阅下表标题中的链接,了解如何使用特定功能的指南。 请注意,虽然支持 logprobs,但 Gemini 对其使用有相当严格的限制。设置
LangChain.js 支持两种不同的身份验证方法,具体取决于您是在 Node.js 环境还是 Web 环境中运行。它还支持 Vertex AI Express Mode 使用的身份验证方法,可以使用任一包。 要访问ChatVertexAI 模型,您需要在 Google Cloud Platform (GCP) 账户中设置 Google VertexAI,保存凭据文件,并安装 @langchain/google-vertexai 集成包。
凭据
前往您的 GCP 账户 并生成凭据文件。完成后,设置GOOGLE_APPLICATION_CREDENTIALS 环境变量:
GOOGLE_VERTEX_AI_WEB_CREDENTIALS 环境变量设置为 JSON 字符串化对象,并安装 @langchain/google-vertexai-web 包:
@langchain/google-vertexai 或 @langchain/google-vertexai-web 包。
然后,您可以前往 Express Mode API 密钥页面,并在 GOOGLE_API_KEY 环境变量中设置您的 API 密钥:
安装
LangChainChatVertexAI 集成位于 @langchain/google-vertexai 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
使用 Google 搜索检索进行工具调用
可以使用 Google 搜索工具调用模型,您可以使用它来接地内容生成,以获取真实世界的信息并减少幻觉。 目前gemini-2.0-flash-exp 不支持接地。
您可以选择使用 Google 搜索或使用自定义数据存储进行接地。以下是两者的示例:
Google 搜索检索
使用 Google 搜索的接地示例:使用数据存储的 Google 搜索检索
首先,设置您的数据存储(这是一个示例数据存储的架构):| ID | 日期 | 球队 1 | 比分 | 球队 2 |
|---|---|---|---|---|
| 3001 | 2023-09-07 | Argentina | 1 - 0 | Ecuador |
| 3002 | 2023-09-12 | Venezuela | 1 - 0 | Paraguay |
| 3003 | 2023-09-12 | Chile | 0 - 0 | Colombia |
| 3004 | 2023-09-12 | Peru | 0 - 1 | Brazil |
| 3005 | 2024-10-15 | Argentina | 6 - 0 | Bolivia |
projectId 和 datastoreId 使用自己的变量)
上下文缓存
Vertex AI 提供上下文缓存功能,通过存储和重用长消息内容块来优化成本,适用于多个 API 请求。当您有冗长的对话历史或消息片段频繁出现在交互中时,这尤其有用。 要使用此功能,首先按照此官方指南创建上下文缓存。 创建缓存后,您可以将其 ID 作为运行时参数传递,如下所示:API 参考
有关所有ChatVertexAI 功能和配置的详细文档,请前往 API 参考。

