DeepSeek API
  1. API 指南
DeepSeek API
  • 快速开始
    • 首次调用 API
    • 模型 & 价格
    • Temperature 设置
    • Token 用量计算
    • 限速
    • 错误码
  • API 文档
    • 基本信息
    • 对话补全
      POST
    • FIM 补全(Beta)
      POST
    • 列出模型
      GET
    • 查询余额
      GET
  • API 指南
    • 推理模型 (deepseek-reasoner)
    • 多轮对话
    • 对话前缀续写(Beta)
    • FIM 补全(Beta)
    • JSON Output
    • Function Calling
    • 上下文硬盘缓存
  • 提示库
    • 代码改写
    • 代码解释
    • 代码生成
    • 内容分类
    • 结构化输出
    • 角色扮演(自定义人设)
    • 角色扮演(情景续写)
    • 散文写作
    • 诗歌创作
    • 文案大纲生成
    • 宣传标语生成
    • 模型提示词生成
    • 中英翻译专家
  • 常见问题
    • 常见问题
  1. API 指南

推理模型 (deepseek-reasoner)

deepseek-reasoner 是 DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。我们的 API 向用户开放 deepseek-reasoner 思维链的内容,以供用户查看、展示、蒸馏使用。
在使用 deepseek-reasoner 时,请先升级 OpenAI SDK 以支持新参数。

API 参数#

输入参数:
max_tokens:最终回答的最大长度(不含思维链输出),默认为 4K,最大为 8K。请注意,思维链的输出最多可以达到 32K tokens,控思维链的长度的参数(reasoning_effort)将会在近期上线。
输出字段:
reasoning_content:思维链内容,与 content 同级,访问方法见访问样例
content:最终回答内容
上下文长度:API 最大支持 64K 上下文,输出的 reasoning_content 长度不计入 64K 上下文长度中
支持的功能:对话补全,对话前缀续写 (Beta)
不支持的功能:Function Call、Json Output、FIM 补全 (Beta)
不支持的参数:temperature、top_p、presence_penalty、frequency_penalty、logprobs、top_logprobs。请注意,为了兼容已有软件,设置 temperature、top_p、presence_penalty、frequency_penalty 参数不会报错,但也不会生效。设置 logprobs、top_logprobs 会报错。

上下文拼接#

在每一轮对话过程中,模型会输出思维链内容(reasoning_content)和最终回答(content)。在下一轮对话中,之前轮输出的思维链内容不会被拼接到上下文中,如下图所示:
img
请注意,如果您在输入的 messages 序列中,传入了reasoning_content,API 会返回 400 错误。因此,请删除 API 响应中的 reasoning_content 字段,再发起 API 请求,方法如访问样例所示。

访问样例#

下面的代码以 Python 语言为例,展示了如何访问思维链和最终回答,以及如何在多轮对话中进行上下文拼接。

非流式#

流式#

上一页
查询余额
下一页
多轮对话
Built with