Seekr 为结构化、可解释且透明的 AI 交互提供 AI 驱动的解决方案。本指南提供了开始使用 Seekr 聊天模型的快速概览。有关所有
ChatSeekrFlow 功能和配置的详细文档,请前往 API 参考。
概述
ChatSeekrFlow 类封装了托管在 SeekrFlow 上的聊天模型端点,实现与 LangChain 应用的无缝集成。
集成详情
| 类 | 包 | 可序列化 | 下载量 | 版本 |
|---|---|---|---|---|
| ChatSeekrFlow | seekrai | beta |
模型功能
支持的方法
ChatSeekrFlow 支持 ChatModel 的所有方法,异步 API 除外。
端点要求
ChatSeekrFlow 封装的服务端点必须具有 OpenAI 兼容的聊天输入/输出格式。它可用于:
- 经过微调的 Seekr 模型
- 自定义 SeekrFlow 模型
- 使用 Seekr 检索系统的 RAG 启用模型
AsyncChatSeekrFlow(即将推出)。
在 LangChain 中开始使用 ChatSeekrFlow
本 notebook 介绍如何在 LangChain 中使用 SeekrFlow 作为聊天模型。设置
确保已安装必要的依赖项:API Key 设置
您需要将 API key 设置为环境变量以验证请求。 运行以下单元格。 或在运行查询前手动分配:实例化
调用
链式调用
错误处理与调试
API 参考
ChatSeekrFlow类:langchain_seekrflow.ChatSeekrFlow- PyPI 包:
langchain-seekrflow
通过 MCP 将这些文档连接到 Claude、VSCode 等以获得实时解答。

