当前位置:首页 > DeepSeek技术交流 > 正文内容

AI“压力面”,DeepSeek性能暴跌近30%

2周前 (07-19)DeepSeek技术交流95

导读

•AI导读带你速览精华

顶级AI模型在REST压力测试下性能骤降29.1%,多任务并行暴露三大短板:过度思考、预算失衡、错误传染。这场"高压考试"揭示了单题评测的局限,更聪明的模型会动态分配token,而小模型直接崩盘。

内容由AI智能生成

有用

REST 团队 投稿

量子位 | 公众号 QbitAI

给AI一场压力测试,结果性能暴跌近30%。

来自上海人工智能实验室、清华大学和中国人民大学的研究团队设计了一个全新的“压力测试”框架——REST (Reasoning Evaluation through Simultaneous Testing)。

该框架在一个prompt里同时抛给模型多个问题,模拟真实世界中复杂的、多任务并行的推理场景。

结果发现,即便是像DeepSeek-R1这样的顶级模型,在“高压”之下的表现也大幅缩水,例如,在AIME24测试集上的准确率骤降29.1%。

给大模型来一场“压力测试”

如今的大模型在各种推理能力测试中动辄拿下接近满分的成绩。

如果让模型一次做好几道题,它还会那么“神”吗?

团队认为,当前大模型的评测模式普遍存在三大痛点:

区分度低:在许多基准测试中,顶尖模型的得分已趋于饱和,难以分出高下。例如,7B参数的DeepSeek-R1-Distill-Qwen-7B和671B参数的DeepSeek-R1在MATH500上的准确率分别为93.0%和97.0%,看似相差不大,但推理能力仍有显著区别。

成本高昂:由于现有的数学题几乎已经被纳入了大模型的训练数据。为了有效评估,社区不得不持续投入大量人力物力去开发更新、更难的测试题。但设计这样的测试题需要极高水平的人类专家,一年也出不了几个题。例如,AIME24和AIME25都只有30道题。

脱离现实:一次只答一道题的模式,无法考察模型在真实世界中处理交叉信息,完成多重任务的综合能力。

为了解决这些问题,团队设计REST框架——改造现有基准,如GSM8K、MATH500、AIME24等7个代表性推理任务,不再逐题测试,而是把多个问题拼接成一个长prompt,一次性让模型在一次输出中逐一回答。

研究团队基于GSM8K、MATH500、AIME24等7个主流推理基准,构建了REST评测集,并对超过30个参数从1.5B到671B的主流推理模型进行了全面测试。

这种“压力测试”不仅考察模型基础的推理能力,更深入评估了以往被忽视的几项关键能力

上下文预算分配:模型得聪明地决定怎么在多个题目中分配思考Token。

跨问题干扰抵抗:避免一道题的错误“传染”到其他题。

动态认知负载管理:在高压下保持高效推理,别在一道题上陷入“过度思考”的陷阱。

SOTA模型也“扛不住”,REST拉开差距

最强模型,在多题高压下也顶不住

LRMs可以在单个推理过程中处理多个相对简单的问题,但在REST下,性能皆下降。

如下图所示,DeepSeek-R1,在AIME24基准上,单题模式下效果拔群,但“压力测试”下准确率直降29.1%。其他模型也类似,整体性能大打折扣。

不同参数模型性能差距明显

传统单题测试中,不同大小模型得分都接近天花板。而REST揭示了不同尺寸模型之间存在显著的性能差异。如下图所示,7B参数的小模型在高压下崩得更快,而更大的32B参数的模型性能虽有下降但仍保持优势。如下图所示,不同压力水平下,模型性能拉开明显梯度——这让REST成为更强的“分辨器”,帮我们精准比较模型。

“过度思考”成大坑,long2short技术救场

为什么模型在REST下变差?分析显示,关键是陷入了过度思考的陷阱。就像学生考试,在一道难题上思考太久,没时间做后面的题目了。

但用long2short技术(鼓励模型缩短推理过程)训练的模型,就能更好地保留单题性能,在REST下领先。如L1Qwen-1.5B-Exact和L1-Qwen-1.5B-Max,在高压力水平下表现出显著的性能优势。如表6所示,L1-Qwen-1.5B-Max在MATH500上压力水平s=9时,准确率比R1-1.5B高出44.71%的显著差距。7B模型中也观察到类似的趋势。

动态分配token,有的模型更“聪明”

REST下,一些“聪明”的模型(如Nemotron-nano-7B和DeepSeek-R1)会动态调整推理预算:当压力增大时,它们为第一道题分配更少的推理token,留力后续。但低性能模型(如DeepSeek-R1-Distill-Qwen-7B)往往在前面的题上用掉太多token,留给后续问题的空间不足,导致整体崩盘。

这一观察表明,在REST中表现优异的LRM模型在压力下倾向于对早期问题进行更简洁的推理,从而为后续问题留出足够的空间。

团队将这种能力称为“自适应推理努力分配”,认为这是在REST下实现稳健性能的关键因素。

此外,REST还揭示了一些推理不良行为,如问题遗漏和对推理过程总结错误,这些问题在单问题评估中未被发现。

总而言之,REST不是简单加题,而是给大模型来场“压力测试”,挑战了“LLMs是多问题解决者”的普遍假设,揭示了当前评测方法的局限性,提供了一种更低成本、更贴近真实的评测数据构建新范式,为未来开发更健壮和强大的LRMs提供了更加深刻的见解。

论文地址:https://arxiv.org/abs/2507.10541项目地址:https://opendatalab.github.io/REST代码仓库:https://github.com/opendatalab/REST


“AI“压力面”,DeepSeek性能暴跌近30%” 的相关文章

2025年DeepSeek关键词排名优化推荐:DeepSeek GEO服务商指南

2025年DeepSeek关键词排名优化推荐:DeepSeek GEO服务商指南

在数字化营销竞争日益激烈的当下,企业对于关键词排名优化的需求愈发迫切。据相关数据显示,2024 年企业在关键词优化服务上的投入同比增长 35%,但市场上服务商质量参差不齐,不少企业因选择不当导致营销预...

2025年DeepSeek全站最全资源合集:技术突破+行业应用+实战教程

2025年DeepSeek全站最全资源合集:技术突破+行业应用+实战教程

一、DeepSeek的崛起与行业价值2025年,DeepSeek作为全球最具影响力的开源大模型之一,凭借其颠覆性的技术架构和广泛的行业应用,正在重塑人工智能领域的格局。从金融到医疗,从教育到制造业,D...

新时代AI(DeepSeek)课|2.一键生成爆款文案(2025年第3期第5篇)

新时代AI(DeepSeek)课|2.一键生成爆款文案(2025年第3期第5篇)

朋友们,好!本节重点来了!(一键生成爆款文案),具体方法分享如下:通过前面章节的分享,我们已经牢牢记住了AI提示词的结构:①我是谁——就是要明确背景信息和角色(或AI需要扮演的角色)。②我要啥——就是...

大洗牌!DeepSeek下载量大跌72%,智谱、文小言、可灵AI月活集体下滑,“AI+办公”“AI+教育”异军突起|2025年二季度AI应用价值榜

大洗牌!DeepSeek下载量大跌72%,智谱、文小言、可灵AI月活集体下滑,“AI+办公”“AI+教育”异军突起|2025年二季度AI应用价值榜

2025年二季度,AI应用市场竞争加剧,用户从尝鲜转向实用需求,头部玩家面临留存考验。DeepSeek下载量大跌72%,豆包凭借生态优势领跑下载量榜,MAU大幅增长。《2025年二季度AI应用价值榜》...

头部GEO公司即搜AI SEO 以deepseek优化技术助力企业决胜百度AI搜索

头部GEO公司即搜AI SEO 以deepseek优化技术助力企业决胜百度AI搜索

2025年,在生成式AI(AIGC)深刻重塑信息获取方式的时代,企业内容如何在DeepSeek、豆包等AI驱动的搜索结果中获得更高可见性与引用率,已成为数字化竞争的核心议题。现在有数据证明,每7个网购...

QuestMobile:2025上半年Deepseek用户规模增量居首

QuestMobile:2025上半年Deepseek用户规模增量居首

凤凰网科技讯 7月29日,Quest Mobile发布2025中国移动互联网半年大报告。报告揭晓了2025年6月活跃用户规模1亿以上且同比增长率领先的前20款APP。在这份榜单中,DeepSeek以1...