langchain-nvidia-ai-endpoints 包含由 NVIDIA AI Foundation Models 驱动、托管于 NVIDIA API Catalog 的聊天模型和嵌入模型的 LangChain 集成。
NVIDIA AI Foundation 模型是由社区和 NVIDIA 共同构建的模型,针对 NVIDIA 加速基础设施进行了优化以提供最佳性能。您可以使用 API 查询 NVIDIA API Catalog 上的在线端点,从 DGX 托管的云计算环境中快速获取结果;也可以通过 NVIDIA NIM(包含在 NVIDIA AI Enterprise 许可证中)从 NVIDIA API Catalog 下载模型。在本地运行模型的能力使企业能够掌控自定义内容,并完全控制其知识产权和 AI 应用。
NIM 微服务按模型/模型系列打包为容器镜像,通过 NVIDIA NGC Catalog 以 NGC 容器镜像的形式分发。NIM 微服务的核心是提供交互式 API 的容器,用于在 AI 模型上运行推理。
本示例展示如何使用 LangChain 通过 NVIDIAEmbeddings 类与支持的 NVIDIA Retrieval QA Embedding Model 进行交互,以实现检索增强生成。
有关通过此 API 访问聊天模型的更多信息,请参阅 ChatNVIDIA 文档。
安装包
访问 NVIDIA API Catalog
要获得 NVIDIA API Catalog 的访问权限,请执行以下步骤:- 在 NVIDIA API Catalog 上创建免费账户并登录。
- 点击您的头像图标,然后点击 API Keys,进入 API Keys 页面。
- 点击 Generate API Key,弹出 Generate API Key 窗口。
- 点击 Generate Key,您将看到 API Key Granted,您的密钥随即显示。
- 复制并保存密钥为
NVIDIA_API_KEY。 - 使用以下代码验证您的密钥。
使用 API Catalog
初始化嵌入模型时,您可以通过传入模型名称(如下方的NV-Embed-QA)来选择模型,或者不传入任何参数以使用默认模型。
Embeddings 方法,包括:
-
embed_query:为查询样本生成查询嵌入向量。 -
embed_documents:为您希望搜索的文档列表生成段落嵌入向量。 -
aembed_query/aembed_documents:上述方法的异步版本。
使用 NVIDIA NIM 微服务自托管
当您准备好部署 AI 应用时,可以使用 NVIDIA NIM 自托管模型。更多信息请参阅 NVIDIA NIM Microservices。 以下代码连接到本地托管的 NIM 微服务。相似性测试
以下是对这些数据点进行相似性的快速测试: 查询:- 堪察加的天气怎么样?
- 意大利以哪些食物著称?
- 我叫什么名字?我打赌你不记得了…
- 生命的意义是什么?
- 生命的意义就是享受乐趣 :D
- 堪察加天气寒冷,冬季漫长而严酷。
- 意大利以意面、披萨、冰淇淋和浓缩咖啡闻名。
- 我无法回忆个人姓名,只能提供信息。
- 生命的目的因人而异,通常被视为个人实现。
- 享受生命中的每一刻确实是一种美妙的方式。
嵌入运行时
文档嵌入
- 堪察加的天气怎么样?
- 意大利以哪些食物著称?
- 我叫什么名字?我打赌你不记得了…
- 生命的意义是什么?
- 生命的意义就是享受乐趣 :D
- 堪察加天气寒冷,冬季漫长而严酷。
- 意大利以意面、披萨、冰淇淋和浓缩咖啡闻名。
- 我无法回忆个人姓名,只能提供信息。
- 生命的目的因人而异,通常被视为个人实现。
- 享受生命中的每一刻确实是一种美妙的方式。
截断
嵌入模型通常有固定的上下文窗口,决定了可嵌入的最大输入 token 数。该限制可能是硬限制(等于模型的最大输入 token 长度),也可能是有效限制(超出此限制后嵌入精度会下降)。 由于模型基于 token 运作而应用通常处理文本,因此确保输入在模型 token 限制内可能比较困难。默认情况下,如果输入过大,将抛出异常。 为此,NVIDIA 的 NIM(API Catalog 或本地)提供了truncate 参数,在输入过大时在服务端进行截断。
truncate 参数有三个选项:
- “NONE”:默认选项。输入过大时抛出异常。
- “START”:服务端从开头(左侧)截断输入,丢弃必要的 token。
- “END”:服务端从末尾(右侧)截断输入,丢弃必要的 token。
RAG 检索
以下是对 LangChain 表达式语言检索 Cookbook 条目 初始示例的改编,使用 AI Foundation Models 中的 Mixtral 8x7B Instruct 和 NVIDIA Retrieval QA Embedding 模型(在其 playground 环境中提供)执行。Cookbook 中的后续示例也可按预期运行,我们鼓励您探索这些选项。 提示: 我们建议将 Mixtral 用于内部推理(即数据提取的指令遵循、工具选择等),将 Llama-Chat 用于最终的”根据历史和上下文为该用户生成简洁回应”的单次总结性回答。相关主题
langchain-nvidia-ai-endpoints包README- NVIDIA NIM 大型语言模型(LLM)概述
- NeMo Retriever Embedding NIM 概述
- NeMo Retriever Reranking NIM 概述
ChatNVIDIA模型- NVIDIA 提供商页面
Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

