Fireworks 通过打造创新的 AI 实验与生产平台,加速生成式 AI 的产品开发。本示例介绍如何使用 LangChain 与
Fireworks 模型进行交互。
概述
集成详情
| 类 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
Fireworks | langchain-fireworks | ❌ | ❌ | ✅ |
设置
凭证
登录 Fireworks AI 获取 API Key 以访问我们的模型,并确保将其设置为FIREWORKS_API_KEY 环境变量。
3. 使用模型 ID 配置您的模型。如果未设置模型,默认模型为 fireworks-llama-v2-7b-chat。请在 fireworks.ai 上查看最新完整的模型列表。
安装
运行本 notebook 其余部分需要安装langchain-fireworks Python 包。
实例化
调用
您可以直接使用字符串提示词调用模型来获取补全结果。使用多个提示词调用
使用额外参数调用
链式调用
您可以使用 LangChain 表达式语言为非对话模型创建简单的链。流式输出
如果需要,您可以流式输出结果。API 参考
有关Fireworks LLM 所有功能和配置的详细文档,请参阅 API 参考。
将这些文档连接到 Claude、VSCode 等工具,通过 MCP 获取实时答案。

