开云体育
开云APP下载DeepSeek测试百万上下文模型预示春节前夕或有重磅发布
近日,大模型领域风向标之一的DeepSeek被曝正在其网页及应用端内部测试一款支持100万(1M)上下文长度的新模型结构。这一消息迅速引发业界关注,普遍猜测DeepSeek可能在今年春节前后再次推出“王炸”级新品,复刻去年同期引发的轰动效应。目前,DeepSeek的API服务仍维持在V3.2版本,支持128K上下文,这进一步凸显了此次测试新模型在长文本处理能力上的巨大跃升。
此次新模型测试的背景,可追溯至今年1月12日DeepSeek与北京大学共同发表的一篇论文:《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》。该论文由梁文锋等作者署名,核心旨在解决当前大型语言模型在记忆力方面的“短板”,提出了“条件记忆”这一创新概念。彼时,行业内便普遍预测,这篇前瞻性研究或为DeepSeek下一代旗舰模型V4的发布奠定技术基础,并可能在春节期间正式亮相。
DeepSeek在过去一年中展现了显著的研发节奏。去年12月1日,公司曾同步发布了DeepSeek-V3.2和DeepSeek-V3.2-Speciale两款正式版模型。其中,V3.2已全面应用于官方网页、App和API,其设计目标在于平衡推理能力与输出长度,尤其适用于问答和通用Agent任务场景。在公开的推理基准测试中,DeepSeek-V3.2的性能已达到GPT-5级别,仅略低于Gemini-3.0-Pro,并且通过优化输出长度,有效降低了计算开销和用户等待时间。而Speciale版本则以临时API形式面向社区开放,用于评测与研究,体现了其对技术迭代和社区反馈的重视。
DeepSeek的每一次动向都牵动着行业神经,其影响力可见一斑。例如,网易有道词典发布的2025年度词汇,“deepseek”以超过860万次的年度搜索量成功当选。据有道词典方面介绍,该词汇的搜索热度曲线呈现爆发式增长,从年初因其“低成本”突破算力限制,到后续的每一次重大进展,都显著带动了搜索量的攀升。
对于普通用户和开发者而言,若DeepSeek如期发布支持1M上下文的新模型,意味着大模型在处理超长文档、复杂代码库、多轮对话记忆等场景下的能力将得到质的飞跃。这不仅能大幅提升信息处理效率,也为构建更智能、更具连贯性的AI应用提供了可能。这一潜在的发布,无疑将进一步加剧大模型领域的竞争,并推动整个行业在长文本处理技术上向前迈进。


2026-02-14
浏览次数:
次
返回列表