中国AI初创公司DeepSeek推出了其最新的实验性语言模型V3.2-exp,旨在将长上下文任务的推理成本降低近一半。
该模型于周一宣布,旨在解决大规模AI应用中最紧迫的挑战之一:处理扩展输入的高昂成本。
V3.2-exp利用一个名为DeepSeek稀疏注意力的新系统,该系统将"闪电索引器"与用于精细token选择的辅助模块配对。
这些创新共同使模型能够专注于最相关的内容片段,同时精确管理token级别的细节。早期内部测试表明,该系统可以显著减少服务器负载,长上下文操作的API成本可能降低50%。
与许多保持封闭的商业AI发布不同,V3.2-exp已作为开放权重模型推出。它现在可在Hugging Face上访问,为研究人员、开发者和企业提供了进行独立评估的机会。
这一决定凸显了DeepSeek持续推动透明度和协作的努力,尤其是在公司越来越仔细审查效率和性能声明的情况下。
该模型的开放发布也与DeepSeek今年早些时候对其R1模型采取的策略一致,当时开放基准测试允许社区验证其推理能力。通过对V3.2-exp采用相同的方法,DeepSeek表明了对其效率突破的信心。
V3.2-exp的推出是在DeepSeek近几个月进行的一系列更新和实验之后。今年9月初,该公司推出了DeepSeek-V3.1-Terminus,这是一项旨在提高代理性能并解决报告的问题(如难以辨认的符号和不一致的语言切换)的改进。
虽然该更新在人类最后考试和编码任务等基准测试中带来了小幅改进,但一些挑战仍然存在,特别是在中文性能方面。
同时,行业报告显示,DeepSeek正在开发一个下一代以代理为中心的模型,计划在2025年第四季度揭晓。该项目反映了行业向自主AI系统的更广泛转变,这些系统能够在最少人工监督的情况下执行多步骤任务。V3.2-exp的发布似乎通过在推出更高级的代理功能之前加强公司在效率方面的技术基础来补充这一轨迹。
DeepSeek的创新出现在中国AI领域竞争日益激烈的时期。阿里巴巴和腾讯等竞争对手正在大幅扩大其AI投资,阿里巴巴承诺投入超过3800亿人民币(529亿美元)用于云计算和AI基础设施。
虽然DeepSeek因以相对有限的资源实现成本效益的结果而受到赞誉,但分析师警告说,该公司必须保持发展势头,以避免被资金充裕的竞争对手所掩盖。
这篇文章《新DeepSeek模型将扩展上下文的API成本减半》首次发表于CoinCentral。

