MistralAIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考。
概述
集成详情
环境配置
要访问 MistralAI 嵌入模型,您需要创建一个 MistralAI 账户,获取 API 密钥,并安装langchain-mistralai 集成包。
凭据
前往 https://console.mistral.ai/ 注册 MistralAI 并生成 API 密钥。完成此操作后,设置MISTRAL_API_KEY 环境变量:
安装
LangChain 的 MistralAI 集成位于langchain-mistralai 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全结果:索引与检索
嵌入模型通常用于检索增强生成(RAG)流程中,既作为数据索引的一部分,也用于后续的检索操作。如需更详细的说明,请参阅我们的 RAG 教程。 下面介绍如何使用上面初始化的embeddings 对象来索引和检索数据。在本示例中,我们将在 InMemoryVectorStore 中索引和检索一个示例文档。
直接使用
在底层,向量存储和检索器实现分别调用embeddings.embed_documents(...) 和 embeddings.embed_query(...),为 from_texts 和检索 invoke 操作中使用的文本创建嵌入向量。
您可以直接调用这些方法,以便在自己的用例中获取嵌入向量。
嵌入单个文本
您可以使用embed_query 嵌入单个文本或文档:
嵌入多个文本
您可以使用embed_documents 嵌入多个文本:
API 参考
有关MistralAIEmbeddings 功能和配置选项的详细文档,请参阅 API 参考。
通过 MCP 将这些文档连接到 Claude、VSCode 等工具,以获取实时答案。

