- 为 AI 推理工作负载实现前所未有的速度
- 以高吞吐量进行商业构建
- 利用我们无缝的集群技术轻松扩展你的 AI 工作负载
概览
集成详情
| 类 | 包 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatCerebras | @langchain/cerebras | ❌ | ✅ |
模型特性
查看下表标题中的链接,了解有关如何使用特定功能的指南。设置
要访问 ChatCerebras 模型,你需要创建一个 Cerebras 帐户,获取 API 密钥,并安装@langchain/cerebras 集成包。
凭证
从 cloud.cerebras.ai 获取 API 密钥并将其添加到你的环境变量中:安装
LangChain ChatCerebras 集成位于@langchain/cerebras 包中:
实例化
现在我们可以实例化我们的模型对象并生成聊天补全:调用
JSON 调用
API 参考
有关所有 ChatCerebras 功能和配置的详细文档,请前往 API 参考。将这些文档连接 到 Claude、VSCode 等,通过 MCP 获取实时解答。

