ChatOllama 聊天模型。有关所有 ChatOllama 功能和配置的详细文档,请参阅 API 参考。
概览
集成细节
Ollama 允许您使用具有不同功能的各种模型。下表中的某些字段仅适用于 Ollama 提供的部分模型。 有关支持的模型和模型变体的完整列表,请参阅 Ollama 模型库 并按标签搜索。| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatOllama | @langchain/ollama | beta | ✅ |
模型特性
请参阅下表标题中的链接,了解有关如何使用特定功能的指南。| 工具调用 | 结构化输出 | 图像输入 | 音频输入 | 视频输入 | Token 级流式传输 | Token 使用情况 | Logprobs |
|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ✅ | ❌ | ❌ | ✅ | ✅ | ❌ |
设置
按照这些说明设置并运行本地 Ollama 实例。然后,下载@langchain/ollama 包。
凭据
如果您想获得模型调用的自动追踪,您还可以通过取消下面的注释来设置您的 LangSmith API 密钥:安装
LangChain ChatOllama 集成位于@langchain/ollama 包中:
实例化
现在我们可以实例化模型对象并生成聊天补全:调用
工具
Ollama 现在为部分可用模型提供原生工具调用支持。下面的示例演示了如何从 Ollama 模型调用工具。结构化输出
Ollama 原生支持所有模型的结构化输出,允许您通过调用.withStructuredOutput() 强制模型返回特定格式。
method: "functionCalling" 选项:
多模态模型
Ollama 在 0.1.15 及更高版本中支持开源多模态模型,如 LLaVA。 您可以像这样将图像作为消息content 字段的一部分传递给支持多模态的模型:
API 参考
有关所有 ChatOllama 功能和配置的详细文档,请参阅 API 参考。通过 MCP 将这些文档连接 到 Claude、VSCode 等,以获取实时解答。

