DeepSeek发布V3.1-Terminus 支持128K上下文双模式运行

2025-09-23 00:00:03    来源:新经网    作者:冯思韵
很多朋友不知道【DeepSeek发布V3.1-Terminus 支持128K上下文双模式运行】,今天小绿就为大家解答一下。

版权所有,未经许可不得转载

  据官方公布的技术参数,非思考模型的输出长度默认为4K tokens,最大可扩展至8K tokens,适用于快速响应的常规交互场景;而思考模型则针对复杂推理任务优化,输出长度默认达32K tokens,最大支持64K tokens,适合需要深度逻辑分析、代码生成或长篇内容创作的应用。这一双模式设计使用户可根据具体需求灵活选择,兼顾效率与深度。

  【CNMO科技消息】DeepSeek于今日晚间正式宣布,其线上大语言模型已完成重大升级,新版本命名为DeepSeek-V3.1-Terminus,现已面向用户开放在线体验。此次更新标志着该公司在模型性能与服务能力上的进一步提升。升级后的模型提供“思考模型”与“非思考模型”两种运行模式,均支持高达128K的上下文长度,能够处理更复杂的长文本任务,满足专业场景下的多轮对话与文档分析需求。

  在服务定价方面,DeepSeek公布了透明的计费标准,旨在为开发者和企业用户提供高性价比的AI服务。模型输入费用根据缓存命中情况区分:若请求内容命中缓存,每百万tokens仅需0.5元;未命中缓存则为4元。模型输出费用统一为每百万tokens 12元。该定价策略有助于降低高频调用场景下的运营成本,尤其利好需要重复访问相同知识库的应用。


以上问题已经回答了。如果你想了解更多,请关新经网网站 (https://www.xinhuatone.com/)
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。