Skip to main content
这将帮助您开始使用 DeepSeek 的托管 聊天模型
API 参考详细了解所有功能和配置选项,请参阅 ChatDeepSeek API 参考。
DeepSeek 的模型是开源的,可以在本地运行(例如,在 Ollama 中)或在其他推理提供商上运行(例如,在 FireworksTogether 中)。

概览

集成细节

类别可序列化JavaScript 支持下载量版本
ChatDeepSeeklangchain-deepseekbetaPyPI - 下载量PyPI - 版本

模型功能

工具调用结构化输出图像输入音频输入视频输入分词级流式传输原生异步分词使用量Logprobs
DeepSeek-R1,通过 model="deepseek-reasoner" 指定,不支持工具调用或结构化输出。这些功能 由 DeepSeek-V3 支持,指定为 model="deepseek-chat"

配置

要访问 DeepSeek 模型,您需要创建一个 DeepSeek 账户、获取 API 密钥,并安装 langchain-deepseek 集成包。

凭据

前往 DeepSeek 的 API 密钥页面 注册并生成 API 密钥。完成此操作后,请设置 DEEPSEEK_API_KEY 环境变量:
import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
    os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("请输入您的 DeepSeek API 密钥: ")
要启用对模型调用的自动跟踪,请设置 LangSmith 的 API 密钥:
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("请输入您的 LangSmith API 密钥: ")

安装

LangChain DeepSeek 集成位于 langchain-deepseek 包中:
pip install -qU langchain-deepseek

实例化

现在我们可以实例化我们的模型对象并生成聊天完成结果:
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0,
    max_tokens=None,
    timeout=None,
    max_retries=2,
    # 其他参数...
)

调用

messages = [
    (
        "system",
        "您是一个将英语翻译成法语的有帮助的助手。请翻译用户句子。",
    ),
    ("human", "我爱编程。"),
]
ai_msg = llm.invoke(messages)
ai_msg.content

API 参考

详细了解所有 ChatDeepSeek 功能和配置,请参阅 API 参考