ChatOllama 聊天模型。有关所有 ChatOllama 功能和配置的详细文档,请前往 API 参考。
概述
集成详情
Ollama 允许您使用具有不同功能的广泛模型。下表详情中的某些字段仅适用于 Ollama 提供的部分模型。 有关支持的模型和模型变体的完整列表,请参阅 Ollama 模型库 并按标签搜索。| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatOllama | @langchain/ollama | beta | ✅ |
模型功能
请参阅下表标题中的链接,了解如何使用特定功能的指南。设置
请按照这些说明设置并运行本地 Ollama 实例。然后,下载@langchain/ollama 包。
凭证
如果您想自动跟踪模型调用,还可以通过取消注释以下内容来设置您的 LangSmith API 密钥:安装
LangChain ChatOllama 集成位于@langchain/ollama 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
工具
Ollama 现在为其可用模型的一个子集提供原生工具调用支持。下面的示例演示了如何从 Ollama 模型调用工具。结构化输出
Ollama 原生支持所有模型的结构化输出,允许您通过调用.withStructuredOutput() 来强制模型返回特定格式。
method: "functionCalling" 选项:
多模态模型
Ollama 支持开源多模态模型,例如 LLaVA,版本 0.1.15 及以上。 您可以将图像作为消息content 字段的一部分传递给支持多模态的模型,如下所示:
API 参考
有关所有ChatOllama 功能和配置的详细文档,请前往 API 参考。
通过 MCP 将这些文档连接到 Claude、VSCode 等,以获取实时答案。

