Skip to main content
Cerebras 是一家模型提供商,提供开源模型并强调速度。由 Wafer-Scale Engine-3 (WSE-3) 驱动的 Cerebras CS-3 系统代表了一类新的 AI 超级计算机,为生成式 AI 训练和推理设定了无与伦比的性能和可扩展性标准。 使用 Cerebras 作为你的推理提供商,你可以:
  • 为 AI 推理工作负载实现前所未有的速度
  • 以高吞吐量进行商业构建
  • 利用我们无缝的集群技术轻松扩展你的 AI 工作负载
我们的 CS-3 系统可以快速轻松地集群,创建世界上最大的 AI 超级计算机,使放置和运行最大的模型变得简单。领先的企业、研究机构和政府已经在使用 Cerebras 解决方案来开发专有模型并训练流行的开源模型。 这将帮助你开始使用 ChatCerebras 聊天模型。有关所有 ChatCerebras 功能和配置的详细文档,请前往 API 参考

概览

集成详情

可序列化PY 支持下载量版本
ChatCerebras@langchain/cerebrasNPM - DownloadsNPM - Version

模型特性

查看下表标题中的链接,了解有关如何使用特定功能的指南。

设置

要访问 ChatCerebras 模型,你需要创建一个 Cerebras 帐户,获取 API 密钥,并安装 @langchain/cerebras 集成包。

凭证

cloud.cerebras.ai 获取 API 密钥并将其添加到你的环境变量中:
export CEREBRAS_API_KEY="your-api-key"
如果你想获得模型调用的自动追踪,你也可以通过取消注释下方内容来设置你的 LangSmith API 密钥:
# export LANGSMITH_TRACING="true"
# export LANGSMITH_API_KEY="your-api-key"

安装

LangChain ChatCerebras 集成位于 @langchain/cerebras 包中:
npm install @langchain/cerebras @langchain/core

实例化

现在我们可以实例化我们的模型对象并生成聊天补全:
import { ChatCerebras } from "@langchain/cerebras"

const llm = new ChatCerebras({
    model: "llama-3.3-70b",
    temperature: 0,
    maxTokens: undefined,
    maxRetries: 2,
    // other params...
})

调用

const aiMsg = await llm.invoke([
    {
      role: "system",
      content: "You are a helpful assistant that translates English to French. Translate the user sentence.",
    },
    { role: "user", content: "I love programming." },
])
aiMsg
AIMessage {
  "id": "run-17c7d62d-67ac-4677-b33a-18298fc85e35",
  "content": "J'adore la programmation.",
  "additional_kwargs": {},
  "response_metadata": {
    "id": "chatcmpl-2d1e2de5-4239-46fb-af2a-6200d89d7dde",
    "created": 1735785598,
    "model": "llama-3.3-70b",
    "system_fingerprint": "fp_2e2a2a083c",
    "object": "chat.completion",
    "time_info": {
      "queue_time": 0.00009063,
      "prompt_time": 0.002163031,
      "completion_time": 0.012339628,
      "total_time": 0.01640915870666504,
      "created": 1735785598
    }
  },
  "tool_calls": [],
  "invalid_tool_calls": [],
  "usage_metadata": {
    "input_tokens": 55,
    "output_tokens": 9,
    "total_tokens": 64
  }
}
console.log(aiMsg.content)
J'adore la programmation.

JSON 调用

const messages = [
  {
    role: "system",
    content: "You are a math tutor that handles math exercises and makes output in json in format { result: number }.",
  },
  { role: "user",  content: "2 + 2" },
];

const aiInvokeMsg = await llm.invoke(messages, { response_format: { type: "json_object" } });

// if you want not to pass response_format in every invoke, you can bind it to the instance
const llmWithResponseFormat = llm.bind({ response_format: { type: "json_object" } });
const aiBindMsg = await llmWithResponseFormat.invoke(messages);

// they are the same
console.log({ aiInvokeMsgContent: aiInvokeMsg.content, aiBindMsg: aiBindMsg.content });
{ aiInvokeMsgContent: '{"result":4}', aiBindMsg: '{"result":4}' }

API 参考

有关所有 ChatCerebras 功能和配置的详细文档,请前往 API 参考