- 为 AI 推理工作负载实现前所未有的速度
- 以高吞吐量进行商业构建
- 利用我们无缝的集群技术轻松扩展您的 AI 工作负载
ChatCerebras 聊天模型。有关所有 ChatCerebras 功能和配置的详细文档,请前往 API 参考。
概述
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
ChatCerebras | @langchain/cerebras | ❌ | ✅ |
模型功能
请参阅下表标题中的链接,了解如何使用特定功能的指南。| 工具调用 | 结构化输出 | 图像输入 | 音频输入 | 视频输入 | Token 级流式传输 | Token 使用情况 | Logprobs |
|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ❌ | ❌ | ❌ | ✅ | ✅ | ❌ |
设置
要访问 ChatCerebras 模型,您需要创建一个 Cerebras 账户,获取 API 密钥,并安装@langchain/cerebras 集成包。
凭证
从 cloud.cerebras.ai 获取 API 密钥,并将其添加到您的环境变量中:安装
LangChain ChatCerebras 集成位于@langchain/cerebras 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
Json 调用
API 参考
有关所有ChatCerebras 功能和配置的详细文档,请前往 API 参考。
通过 MCP 将这些文档连接到 Claude、VSCode 等 以获取实时答案。

