
DeepSeek AI正式宣布其实验性大语言模型DeepSeek-V3.2-Exp登陆国家超算互联网AI社区,依托国产深算智能加速卡与全国一体化算力网的资源支撑,企业及开发者可免费下载模型文件与全套工具链,快速启动AI应用开发。这一举措标志着国产大模型在”算力-算法-生态”协同发展中迈出关键一步,为中小企业数智化转型提供了低成本解决方案。
作为V3.1-Terminus版本的重大升级,DeepSeek-V3.2-Exp的核心突破在于引入DeepSeek稀疏注意力(DSA)机制,从根本上优化了传统Transformer架构的计算瓶颈。传统注意力机制需对文本序列中每个token进行全量关联计算,复杂度高达O(n²),处理法律文书、科研论文等8000+token长文本时极易引发显存爆炸。而DSA通过三阶段动态处理实现效率跃升:先将序列划分为128token的基础块,再通过模式选择器智能筛选局部依赖、全局特征及关键token,最终仅对选定位置进行注意力计算,将复杂度降至O(n√n)。
实测数据显示,该机制使长文本推理速度提升2-3倍,内存使用量降低30%-40%,训练效率提升50%,同时API调用成本降低超50%,缓存命中场景下输入成本低至$0.07/百万token。更值得关注的是,在效率飙升的同时,模型性能基本保持稳定——在MMLU-Pro等核心基准测试中得分与V3.1-Terminus持平,在数学推理(AIME2025)、编程竞赛(Codeforces)等任务中甚至实现0.9-75分的性能提升。
此次模型上线的国家超算互联网AI社区,已整合全国14个省区市20余家超算中心的E级异构算力资源,形成50+规格的普惠算力池,并适配国产异构加速卡生态。依托”算力+模型”一体化交付模式,开发者可获得从在线体验、本地部署到调优迭代的全流程支持:初级开发者能通过零门槛教程快速上手,资深团队则可利用CUDA内核源码与多平台部署方案进行深度定制。
截至目前,该社区已上线270余款适配国产算力的开源大模型,DeepSeek-V3.2-Exp的加入进一步丰富了高端模型供给。”通过稀疏技术与普惠算力的结合,我们希望打破AI开发的成本壁垒。”DeepSeek技术负责人表示,该模型作为下一代架构的技术铺垫,其开源经验将为V4版本研发及行业标准制定提供支撑。








