概览
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatMistralAI | @langchain/mistralai | ❌ | ✅ |
模型特性
请参阅下表标题中的链接,了解如何使用特定功能的指南。设置
要访问 Mistral AI 模型,你需要创建一个 Mistral AI 账户,获取 API 密钥,并安装@langchain/mistralai 集成包。
凭证
前往 这里 注册 Mistral AI 并生成 API 密钥。完成后,设置MISTRAL_API_KEY 环境变量:
安装
LangChain ChatMistralAI 集成位于@langchain/mistralai 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
向 mistral 发送聊天消息时,有一些要求需要遵循:- 第一条消息不能是助手 (ai) 消息。
- 消息必须在用户和助手 (ai) 消息之间交替。
- 消息不能以助手 (ai) 或系统消息结尾。
工具调用
Mistral 的 API 支持部分模型的工具调用。你可以在这个页面查看哪些模型支持工具调用。 下面的示例演示了如何使用它:钩子 (Hooks)
Mistral AI 支持针对三个事件的自定义钩子:beforeRequest(请求前)、requestError(请求错误)和 response(响应)。每种钩子类型的函数签名示例如下:addAllHooksToHttpClient 方法会在分配整个更新后的钩子列表之前清除所有当前添加的钩子,以避免钩子重复。
钩子可以逐个移除,也可以一次性从模型中清除所有钩子。
API 参考
有关所有 ChatMistralAI 功能和配置的详细文档,请访问 API 参考。Connect these docs to Claude, VSCode, and more via MCP for real-time answers.

