从高考到奥林匹克竞技场:大模型与人类智能的终极较量


从高考到奥林匹克竞技场:大模型与人类智能的终极较量
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

上海交通大学生成式人工智能实验室(gair lab)的研究团队,主要研究方向是:大模型训练、对齐与评估。团队主页:https://plms.ai/

在未来20年内,AI有望超过人类的智能水平。图灵奖得主Hinton在他的访谈中提及“在未来20年内,AI有望超越人类的智能水平”,并建议各大科技公司早做准备,评定大模型(包括多模态大模型)的“智力水平”则是这一准备的必要前提。

一个具有跨学科问题集、可以从多维度严谨评估AI的认知推理能力评估基准已经变得相当亟需。

1. 大模型不断占领人类智力高地:从小学试题到参加高考

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

以大模型为核心的生成式人工智能技术的兴起,使得人类不仅有了可交互的文本、图片、视频交互生成工具,还使得人类有机会训练出一个”有智力“能力的模型,它可以看成是人类延申的大脑,独立完成不同学科问题,成为未来10年可以给科学发现提供加速度的最有力的工具(即AI4Science)。

过去两年,我们看到这种以大模型为代表的硅基智能的快速进化,从最初只能用来去解决小学题目, 到2025年,CMU等人[1]第一次把AI带到了“高考”考场,并在全国卷II英语上取得了134分的成绩,然而,那时候的AI还是个数理逻辑掌握不好的偏科生。直至今年,2025高考刚刚落下帷幕,在无数学子在这一年一度的大考中奋力拼搏,展现了他们多年来的学习成果的同时,大模型也是空前第一次被全学科的拉到考场,并且在数理学科中取得巨大进步。这里我们不禁思考,AI智力进化的天花板在哪?人类还没祭出最难的题目,那会是AI的天花板吗?

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

2. 智力较量最高殿堂:从 AI 高考到 AI 奥运会

四年一度的奥运会也即将到来,这不仅是体育竞技的巅峰盛会,更象征着人类对极限的不断追求和突破。学科奥林匹克竞赛则是知识的深度与智力的极限的完美结合,它既是对学术成就的严格评估,也是对思维敏捷性和创新能力的极限挑战。在这里,科学的严谨与奥运会的激情相遇,共同塑造了一种追求卓越、勇于探索的精神。

学科的奥林匹克竞赛给将会给人机智力巅峰对决提供最好的赛场。不管未来AGI能否实现,AI参加奥林匹克竞赛将会成为通向AGI的必经一站,因为这些考察了模型极具重要的 认知推理能力,而这些能力逐渐被体现于各种复杂的现实世界场景中,比如用作软件开发的AI代理,合作处理复杂的决策过程,甚至推动科学研究领域(AI4Science)。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

3. 构建面向 AI 奥林匹克赛场

在此背景下,上海交通大学生成式人工智能实验室 (GAIR Lab) 的研究团队将大模型从高考考场搬到了更加具有挑战性的“奥林匹克竞技场”,推出了全新的大模型(包括多模态大模型)认知推理能力评估基准——OlympicArena。这一基准使用国际学科奥赛的高难度题目,全面测试了人工智能在跨学科领域的认知推理能力。OlympicArena涵盖了数学、物理、化学、生物、地理、天文、计算机七大核心学科,包括62个国际学科奥赛(如IMO, IPhO, IChO, IBO, ICPC等)的11,163道中英双语题目,为研究者们提供了一个全面评估AI模型的理想平台。

同时,更长远来看,OlympicArena为今后AI在科学领域(AI4Science),工程领域(AI4Engineering)发挥自身强大的能力,甚至促进AI激发出超越人类水平达到Superintelligence,起到了不可忽视的奠定作用。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

研究团队发现,当下所有的大模型在学科奥赛上都不能交出较好的答卷,即使是GPT-4o,仅仅只有39%的正确率,GPT-4V仅有33%,离及格线(60%正确率)还有相当大的距离。而多数开源大模型表现的更加不尽人意,例如,LLaVa-NeXT-34B, InternVL-Chat-V1.5等当下较强的多模态大模型都未达到20%的正确率。

此外,多数多模态大模型都不擅长充分利用视觉信息解决复杂的推理任务,这也是大模型与人类最显著的差异(人类往往会优先关注处理视觉信息)。因此,OlympicArena上的测试结果表明模型在科学问题的求解上与人类依然有所差距,其内在的推理能力仍然需要不断提高才能更好的辅助人类的科学研究。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

  • 论文地址:https://arxiv.org/pdf/2406.12753
  • 项目地址:https://gair-nlp.github.io/OlympicArena/
  • 代码地址:https://github.com/GAIR-NLP/OlympicArena

OlympicArena特点

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

OlympicArena的特点概述了它对多模态支持、多种认知能力考察以及细粒度评估(既考虑对错的评估,又考虑每个推理步骤评估)的例子。

  • 全面:OlympicArena包括来自62个不同奥林匹克竞赛的共11,163道题目,跨越了七大核心学科:数学、物理、化学、生物、地理、天文和计算机,涉及34个专业分支。同时,不同于以往的benchmark大多数聚焦在选择题等客观题,OlympicArena支持丰富的题型,包含表达式、方程式、区间、化学方程式的书写甚至是编程题等。此外,OlympicArena支持多模态(将近半数的题目含有图片),并采用了与现实中最贴合的文本-图像环绕的输入格式(interle*ed text-image),充分测试了大模型利用视觉信息协助进行推理的能力。
  • 极具挑战性:与以往的benchmark要么聚焦于高中(高考)题,要么聚焦于大学题不同,OlympicArena更加聚焦于更加纯粹的复杂推理能力的考察,而不是考察大模型对海量知识点的记忆、召回能力或是简单的应用能力。因此,OlympicArena中所有的题目均是奥赛难度。并且,为了细粒度的评估大模型在不同类型的推理能力上的表现,研究团队还总结归纳了8种逻辑推理能力,5种视觉推理能力,后续特别分析了现有的大模型在不同类型的推理能力上表现的差异。
  • 严谨:引导大模型的健康发展是学术界应该扮演的角色,目前在公开的benchmark中,许多流行大模型多多少少会存在数据泄露问题(即benchmark的测试数据泄露在大模型的训练数据中)。因此研究团队专门测试了OlympicArena在当下一些流行大模型上的数据泄露情况,以更加严谨的验证该benchmark的有效性。
  • 细粒度的评估:以往的benchmark往往仅评估大模型给出的最终答案是否与正确答案一致,这在非常复杂的推理问题的评估中是片面的,不能很好的反映出当下模型更加真实的推理能力。因此,研究团队除了有对答案的评估,还加入了对题目过程(步骤)正确性的评估。同时,研究团队也从多个不同的维度进行了不同结果的分析,例如,分析模型在不同学科、不同模态、不同推理能力上的表现差异。

与相关benchmark的比较

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

从上表可以看出:OlympicArena无论是在学科、语言、模态的覆盖,还是在题目类型的多样性,对推理能力的考察深度,以及评估方式的全面性上,都与现存的其他一些聚焦于评测科学问题的benchmark有显著的差异。

实验分析

实验设置

研究团队在OlympicArena上测试了多个多模态大模型(LMM)和纯文本大模型(LLM)。对于多模态大模型,使用了文本-图像环绕(interle*ed text-image)的输入形式;而对于纯文本大模型,在两种设置下进行了测试,分别是不含任何图片信息的纯文本输入(text-only LLMs)和包含图片描述信息的纯文本输入(image caption + LLMs)。加入纯文本大模型测试的目的不仅是为了扩大该benchmark的适用范围(使所有的LLM都能参与排行榜),更是为了更好地了解和分析现有的多模态大模型在与其对应的纯文本大模型相比时,是否能够充分利用图片信息提升其解决问题的能力。所有实验均使用zero-shot CoT prompts,研究团队针对每种答案类型进行了定制,并指定了输出格式以便于答案提取和基于规则的匹配。

实验结果

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

不同模型在OlympicArena不同学科上的准确率,其中CS编程题用无偏pass@k指标,其余均用准确率指标。

从表格的实验结果可以看出,目前市面上所有的主流大模型都没能展现出很高的水准,即使是最先进的大模型GPT-4o,整体准确率也仅为39.97%,而其他开源模型的整体准确率则难以达到20%。这种明显的差异突显了该benchmark的挑战性,证明其在推动当前AI推理能力上限的提升上发挥了很大的促进作用。

此外,研究团队观察到数学和物理依然是最难的两个学科,因为它们更加依赖于复杂灵活的推理能力,推理的步骤也更多,所需综合应用的思维能力也更加多样。而像生物、地理学科,准确率相对高一些,因为这类学科更注重考察利用丰富的科学知识解决、分析实际问题的能力,侧重于对溯因、因果推理能力的考察,相比复杂的归纳、演绎推理,大模型更加善于借助自己训练阶段获得的丰富知识进行此类学科的分析。

计算机编程竞赛也被证明是非常困难的,一些开源模型甚至无法解决其中的任何问题(准确率为0),这表明当前模型在设计有效算法以用程序解决复杂问题方面的能力依然有很大的提升空间。

值得一提的是,OlympicArena被提出的初衷不是一味追求题目难度,而是充分挖掘大模型跨学科、运用多种推理能力解决实际科学问题的能力。上述提到的运用复杂推理的思维能力,利用丰富的科学知识解决、分析实际问题的能力,以及编写高效、准确的程序求解问题的能力,都是在科研领域不可或缺的,也是该benchmark始终侧重的。

细粒度的实验分析

为了实现更细粒度的实验结果分析,研究团队基于不同的模态和推理能力进行了进一步评估。此外,研究团队还进行了模型在题目推理过程上的评估分析。主要发现如下:

模型在不同的逻辑推理和视觉推理能力上表现各异

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

各模型在逻辑推理和视觉推理能力上的表现。逻辑推理能力包括:演绎推理(DED)、归纳推理(IND)、溯因推理(ABD)、类比推理(ANA)、因果推理(CAE)、批判性思维(CT)、分解推理(DEC)和定量推理(QUA)。视觉推理能力包括:模式识别(PR)、空间推理(SPA)、图表推理(DIA)、符号解释(SYB)和视觉比较(COM)。

码上飞 码上飞

码上飞(CodeFlying) 是一款AI自动化开发平台,通过自然语言描述即可自动生成完整应用程序。

码上飞 430 查看详情 码上飞
几乎所有模型在不同逻辑推理能力上的表现趋势相似。它们在溯因推理和因果推理方面表现突出,能够很好地从提供的信息中识别因果关系。相反,模型在归纳推理和分解推理方面表现较差。这是由于奥林匹克级别问题的多样性和非常规性,这些问题需要将复杂问题分解为较小的子问题的能力,这依赖于模型成功求解每一个子问题,并将子问题组合起来解决更大的问题。在视觉推理能力方面,模型在模式识别和视觉比较方面表现较好。

然而,它们在涉及空间和几何推理的任务以及需要理解抽象符号的任务中表现较为困难。从对不同推理能力的细粒度分析来看,大模型所欠缺的能力(如对复杂问题的分解,对几何图形的视觉推理等)正是科学研究中不可或缺、至关重要的能力,表明了AI离真正可以全方位辅助人类进行科学研究还有一段距离。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

不同多模态模型(LMMs)及其对应的纯文本模型(LLMs)在三种不同实验设置中的比较。

大多数多模态模型(LMMs)依然不擅长利用视觉信息协助进行推理

如上图(a)所示,只有少数多模态大模型(如GPT-4o和Qwen-VL-Chat)在有图像输入时相对于其对应的纯文本模型表现出显著的性能提高。许多多模态大模型在图像输入时没有表现出性能提升,甚至在处理图像时表现出效果下降。可能的原因包括:

  •  当文本和图像一起输入时,LMMs可能更多地关注文本,忽略图像中的信息。
  •   一些LMMs在基于其文本模型训练视觉能力时,可能会丧失其固有的一些语言能力(例如,推理能力),这在本项目的复杂场景中尤为明显。
  •   该benchmark的题目使用了复杂的文本-图像环绕的输入格式,一些模型无法很好地支持这一格式,导致其不能很好的处理和理解嵌入文本中的图像位置信息。

而在科学研究中,往往伴随着非常海量的图表、几何图形、可视化数据等视觉信息,只有当AI可以娴熟的使用其视觉能力协助推理时,才可以有助于推动科学研究的效率和创新,成为解决复杂科学问题强有力的工具。

图片

左图:所有模型在所有进行推理过程评估的问题中的,答案的正确率和过程的正确率的相关性。右图:错误过程步骤位置的分布。

推理步骤的评估结果分析

通过对模型推理步骤进行正确性的细粒度评估,研究团队发现:

  • 如上图(b)所示,步骤层面评估的结果和仅仅依靠答案的评估之间通常具有高度一致性。当模型生成正确答案时,其推理过程的质量大多较高。
  • 推理过程的准确率通常高于只看答案的准确率。这表明即使是非常复杂的问题,模型也能正确执行一些中间步骤。因此,模型在认知推理方面可能具有显著的潜力,这为研究人员开辟了新的研究方向。研究团队还发现,在某些学科中,一些在只参照答案评估时表现良好的模型在推理过程上表现不佳。研究团队推测这是因为模型在生成答案时有时会忽略中间步骤的合理性,尽管这些步骤对最终结果可能并不关键。
  • 此外,研究团队对错误步骤的位置分布进行了统计分析(见图c),发现较高比例的错误发生在一题中较后的推理步骤。这表明随着推理过程的累积,模型更容易出错,并产生错误的累积,这表明模型在处理长链逻辑推理时仍然有很大的提升空间。

团队也呼吁所有研究者在AI推理任务中更多地关注模型推理过程的监督和评估。这不仅可以提高AI系统的可信度和透明度,帮助更好地理解模型的推理路径,还能识别出模型在复杂推理中的薄弱环节,从而指导改进模型结构和训练方法。通过细致的过程监督,可以进一步挖掘AI的潜力,推动其在科学研究和实际应用中的广泛应用。

模型错误类型的分析

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

研究团队采样了 GPT-4V 回答错误的112道题(每个学科 16 道题目,其中 8 道为纯文本题目,8 道为多模态题目),并人工标注这些错误的原因。如上图,推理错误(包括逻辑推理错误和视觉推理错误)构成了最大的错误原因,这表明我们的基准有效地突显了当前模型在认知推理能力方面的不足,这与研究团队的初衷是吻合的。

此外,相当一部分错误也来源于知识的缺乏(虽然奥赛的题目仅仅以高中知识为基础范围),这表明当前模型在缺乏领域知识之外,更多的无法利用这些知识来辅助推理。另一个比较多的错误原因是理解偏差,这可以归因于模型对上下文的误解以及整合复杂语言结构和多模态信息的困难。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

一个GPT-4V在数学奥赛题上犯错的例子

数据泄露检测

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

检测到的泄漏样本数量以及相应的纯文本和多模态模型在这些样本题目上做对的数量。

随着预训练语料规模不断扩大,检测benchmark上潜在的数据泄漏至关重要。而预训练过程的不透明通常使这项任务具有挑战性。为此,研究团队采用了一种新提出的实例级泄漏检测指标,称为“N-gram预测准确性”。这一指标均匀地从每个实例中抽取几个起始点,预测每个起始点的下一个N-gram,并检查所有预测的N-gram是否正确,以判断模型是否可能在训练阶段遇到过该实例。研究团队将这一指标应用于所有可用的基础模型。

如上图所示,主流模型在OlympicArena上并没有显著的数据泄露问题,哪怕有泄露,数量相对于完整的benchmark数据集来说微不足道。例如,泄漏最多的Qwen1.5-32B模型也仅仅被检测出43个疑似泄露的实例。这也自然而然引发了一个问题:模型能正确回答泄露的这些实例问题吗?

在这个问题上,研究团队很惊讶的发现,即使是泄露的问题,相应的模型能回答正确的也非常少。这些结果都表明,该benchmark几乎没有遭受数据泄露的影响,并且保持着相当大的挑战性,可以在接下来很长的时间保持其有效性。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

结语

尽管OlympicArena具有非常高的价值,但研究团队表示未来仍有不少工作要做。首先,OlympicArena benchmark不可避免地会引入了一些噪声数据,作者将积极利用社区反馈来不断改进完善。此外,研究团队还计划每年发布基准测试的新版本,以进一步减轻与数据泄露相关的问题。此外,从更长远来讲,当前的基准测试仅限于评估模型解决复杂问题的能力。

在未来,所有人更希望人工智能能够协助完成复杂的综合任务,并在实际应用中展示价值,例如AI4Science和AI4Engineering,这将是未来基准设计的目标和宗旨。尽管如此,目前OlympicArena依然作为促进AI走向Superintelligence的催化剂,发挥着重要的作用。

从高考到奥林匹克竞技场:大模型与人类智能的终极较量

愿景:人类与AI共同进步的辉煌时刻

在未来,我们有理由相信,随着AI技术的不断成熟和应用场景的不断拓展,OlympicArena将不仅仅是一个评估AI能力的赛场,更将成为一个展示AI在各个领域应用潜力的舞台。无论是在科学研究、工程设计,还是在体育竞技等更广泛的领域,AI都将以其独特的方式,为人类社会的发展贡献力量。

最后,研究团队也表示学科奥林匹克赛场也将仅仅是OlympicArena的一个开始,AI更多的能力值得不断的探索,例如奥林匹克体育赛场将在未来成为具身智能的竞技场。

参考链接:
[1] reStructured Pre-training, arXiv 2025, Weizhe Yuan, Pengfei Liu

以上就是从高考到奥林匹克竞技场:大模型与人类智能的终极较量的详细内容,更多请关注其它相关文章!


# 即使是  # 余杭区网站建设服务  # 重庆谷歌seo优化方法  # seo按指数收费  # 沈阳标准网站建设报价表  # 蓝山网站推广方案设计  # 遂宁网站优化  # seo分黑白帽子  # 莆田谷歌seo品牌  # 综合服务网站建设  # 通辽靠谱的网站推广咨询  # 未来  # 细粒度  # 工程  # 奥赛  # 进行了  # 很好  # 是在  # 这一  # 多模  # 奥林匹克  # type  # 硅基智能  # qwen  # 可视化数据  # git 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 优化推广96088 】 【 技术知识133117 】 【 IDC资讯59369 】 【 网络运营7196 】 【 IT资讯61894


相关推荐: 在这里见未来!杭州未来科技城全球AI盛会邀您共探最前沿  华为将于 7 月发布面向 AI 大模型的新款存储产品  五个出色的人工智能应用实例  最大助力35公斤 外骨骼机器人或在养老、医疗领域“大展身手”  Valve Index VR 头显销量下滑,上市四年的长青树渐失光彩  物联网和人工智能的协同作用:释放预测性维护的潜力  丰田汽车研究院推出生成式人工智能汽车设计工具  张勇对话多位诺奖得主 人工智能将无处不在  国内首家,360智脑通过中国信通院可信AIGC大语言模型功能评估  对话式论文阅读工具PaperMate上线,综述细节AI告诉你  网友自制 AI 版《流浪地球 3》预告片,登上 CCTV6  上海发布“元宇宙关键技术攻关行动方案”,加快 AIGC 等突破  大语言模型的视觉天赋:GPT也能通过上下文学习解决视觉任务  第四范式“式说”大模型入选《2025年通用人工智能创新应用案例集》  阿里达摩院向公众免费开放100项AI专利许可  国内AI大模型“安卓时刻”到来!阿里云通义千问免费、开源、可商用  马斯克预测:特斯拉全自动驾驶将在今年实现 对AI深度变化感到担忧  靠游戏更靠AI 英伟达成唯一首季度两位数增长的公司  新闻传闻:迪士尼可能采用人工智能来控制电影制作成本  WAIC 2025|云深处科技绝影Lite3与X20四足机器人亮相  7/8上海 | 2025世界人工智能大会分论坛:科技与人文-共筑无障碍智能社会  工信部信通院发布《2025大模型和AIGC产业图谱》 360智脑覆盖全产业链  讯飞星火大模型实现升级 助力通用人工智能人才培养  探索人工智能在物联网领域的影响与改变  实践J*a开发,构建高性能的MongoDB数据迁移工具  亚太地区 70% 的企业高管正探索生成式 AI 应用或已经进行投资  360发布AI数字人广场,可同孙悟空、爱因斯坦等古今中外角色对话  人工智能“Aria”现身 Opera浏览器100版本更新:新功能“标签岛”  黄仁勋:5年前,我们对AI抱有巨大期望  统信深度deepin成立 AI SIG 社区,共同提升 Linux 下 AI 体验  AI 大模型重塑软件开发,有哪些落地前景和痛点?| ArchSummit  人工智能在交通领域的革新:智能解决方案彻底改变交通方式  人工智能自己玩自己  精准度可提高 20%:英国九家银行签约使用基于 AI 的“消费者欺诈风险系统”应对*  AI连线 | 专访风平智能CEO林洪祥:让AI数字人拥有漂亮的外表和有趣的灵魂,安全问题是重要考量  “苏南 vs 苏北” AI 分胜负,娱乐性比较工具 EitherChoice 上线  亚马逊确认今年不会举办 re:MARS 机器人和人工智能大会  聚焦人工智能大模型、AIGC 徐汇十余场重磅论坛等你来  谷歌推出RT-2视觉语言动作模型,使机器人能够掌握垃圾丢弃技能  “风乌”气象大模型科学家团队:用AI预报极端天气未来不是梦!  金山办公宣布与英伟达团队合作,加速WPS AI服务  “聚智启新,‘蓉’力同行” 成都市人工智能产业融通对接会成功举办  联合国秘书长称支持建立全球人工智能监管机构  AI证件照生成器:实际测试中AI软件展现了绝无仅有的强大效能  AI立法迫在眉睫,如何看对行业影响?  软银、淡马锡、沙特阿美突击入股,“协作机器人第一股”节卡股份:强敌环伺,持续失血是常态  微幼科技晨检机器人与人工晨检相比,有何优势  商汤科技:元萝卜 AI 下棋机器人新品发布会 6 月 14 日举行  Meta推出VR订阅服务Quest +:每月免费玩两款游戏,7.99美元/月  游族AI创新院揭牌成立 推进AI赋能游戏业务 

 2024-06-21

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

运城市盐湖区信雨科技有限公司


运城市盐湖区信雨科技有限公司

运城市盐湖区信雨科技有限公司是一家深耕海外推广领域十年的专业服务商,作为谷歌推广与Facebook广告全球合作伙伴,聚焦外贸企业出海痛点,以数字化营销为核心,提供一站式海外营销解决方案。公司凭借十年行业沉淀与平台官方资源加持,打破传统外贸获客壁垒,助力企业高效开拓全球市场,成为中小企业出海的可靠合作伙伴。

 8156699

 13765294890

 8156699@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.