ChatMistralAI 功能和配置的详细文档,请前往 API 参考。
概述
集成详情
| 类 | 包 | 可序列化 | Python 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatMistralAI | @langchain/mistralai | ❌ | ✅ |
模型功能
请参阅下表标题中的链接,了解如何使用特定功能的指南。| 工具调用 | 结构化输出 | 图像输入 | 音频输入 | 视频输入 | Token 级流式传输 | Token 使用情况 | Logprobs |
|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ✅ | ❌ | ❌ | ✅ | ✅ | ❌ |
设置
要访问 Mistral AI 模型,您需要创建一个 Mistral AI 账户,获取 API 密钥,并安装@langchain/mistralai 集成包。
凭证
访问 Mistral 控制台 注册并生成 API 密钥。完成后,设置MISTRAL_API_KEY 环境变量:
安装
LangChain ChatMistralAI 集成位于@langchain/mistralai 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
向 mistral 发送聊天消息时,需要遵循以下要求:- 第一条消息不能是助手(ai)消息。
- 消息必须在用户和助手(ai)消息之间交替。
- 消息不能以助手(ai)或系统消息结尾。
工具调用
Mistral 的 API 支持其部分模型的工具调用。您可以在此页面查看哪些模型支持工具调用:https://docs.mistral.ai/capabilities/function_calling/。 以下示例演示了如何使用它:钩子
Mistral AI 支持三个事件的自定义钩子:beforeRequest、requestError 和 response。每种钩子类型的函数签名示例如下:addAllHooksToHttpClient 会清除所有当前添加的钩子,然后将整个更新的钩子列表分配给模型,以避免钩子重复。
可以一次移除一个钩子,也可以一次清除模型中的所有钩子。
API 参考
有关所有ChatMistralAI 功能和配置的详细文档,请前往 API 参考。

