开云体育
开云APP下载DeepSeek内部测试百万级上下文新模型结构春节前或再推重磅更新
近日,大模型领域头部厂商DeepSeek被曝正在其官方网页和App端内部测试一种全新的长文本模型结构,该结构已能支持高达1M(百万)的上下文窗口。尽管其面向开发者的API服务目前仍维持在V3.2版本,并仅支持128K上下文,但这一内部测试举动已在业界引发广泛关注,被普遍解读为DeepSeek可能在今年春节前后再次发布具有里程碑意义的新模型,重现去年春节期间的轰动效应。
此次测试并非孤立事件。今年1月12日,DeepSeek曾联合北京大学发布了一篇题为《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》的论文。该研究由包括梁文锋在内的多位学者共同完成,核心在于提出了一种“条件记忆”机制,旨在解决当前大型语言模型在处理长序列信息时普遍存在的记忆力“短板”。这篇论文的发表,当时就被行业解读为DeepSeek下一代模型V4的技术铺垫,并普遍预测其可能在春节前后正式亮相,与当前的内部测试遥相呼应。
DeepSeek在大模型领域的活跃度一直较高。去年12月1日,该公司曾同步发布了DeepSeek-V3.2和DeepSeek-V3.2-Speciale两款正式版模型。其中,DeepSeek-V3.2已全面应用于官方网页、App及API服务,旨在平衡推理能力与输出长度,尤其适用于问答和通用Agent任务。在公开的推理基准测试中,V3.2展现出与GPT-5相当的水平,仅略低于Gemini-3.0-Pro。值得注意的是,V3.2在输出长度上相比Kimi-K2-Thinking有显著优化,有效降低了计算开销和用户等待时间。Speciale版本则以临时API形式开放,供社区进行评测与研究。
作为大模型领域的重要风向标,DeepSeek的每一次动向都牵动着行业的神经。其影响力可见一斑,甚至在网易有道词典发布的2025年度词汇中,“deepseek”一词以高达867万余次的年度搜索量成功当选。据有道词典负责人介绍,该词的搜索曲线呈现出爆发式增长,从年初通过“低成本”突破算力限制开始,几乎每一个重要进展都带动了搜索量的显著提升。
此次1M上下文模型的内部测试,如果能成功转化为正式产品,将对大模型应用带来深远影响。对于开发者和企业而言,更长的上下文窗口意味着模型能处理更复杂的文档分析、代码生成、长篇内容创作以及多轮对话等任务,极大地拓展了LLM的应用边界。对普通用户而言,虽然API更新尚需时日,但未来产品形态有望提供更流畅、更智能的长文本交互体验。这不仅是技术层面的进步,更是对现有大模型能力上限的一次有力冲击,预示着行业在长上下文处理能力上正迎来新的突破口。


2026-02-15
浏览次数:
次
返回列表