DeepSeek API
  1. 快速开始
DeepSeek API
  • 快速开始
    • 首次调用 API
    • 模型 & 价格
    • Temperature 设置
    • Token 用量计算
    • 限速
    • 错误码
  • API 文档
    • 基本信息
    • 对话补全
      POST
    • FIM 补全(Beta)
      POST
    • 列出模型
      GET
    • 查询余额
      GET
  • API 指南
    • 推理模型 (deepseek-reasoner)
    • 多轮对话
    • 对话前缀续写(Beta)
    • FIM 补全(Beta)
    • JSON Output
    • Function Calling
    • 上下文硬盘缓存
  • 提示库
    • 代码改写
    • 代码解释
    • 代码生成
    • 内容分类
    • 结构化输出
    • 角色扮演(自定义人设)
    • 角色扮演(情景续写)
    • 散文写作
    • 诗歌创作
    • 文案大纲生成
    • 宣传标语生成
    • 模型提示词生成
    • 中英翻译专家
  • 常见问题
    • 常见问题
  1. 快速开始

限速

DeepSeek API 不限制用户并发量,我们会尽力保证您所有请求的服务质量。
但请注意,当我们的服务器承受高流量压力时,您的请求发出后,可能需要等待一段时间才能获取服务器的响应。在这段时间里,您的 HTTP 请求会保持连接,并持续收到如下格式的返回内容:
非流式请求:持续返回空行
流式请求:持续返回 SSE keep-alive 注释(: keep-alive)
这些内容不影响 OpenAI SDK 对响应的 JSON body 的解析。如果您在自己解析 HTTP 响应,请注意处理这些空行或注释。
如果 30 分钟后,请求仍未完成,服务器将关闭连接。
上一页
Token 用量计算
下一页
错误码
Built with