永别了,人类冠军,AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍
国际奥赛又一块金牌,被AI夺下了!在国际天文与天体物理奥赛(IOAA)中,GPT-5和Gemini 2.5 Pro完胜人类选手,在理论和数据分析测试中,拿下了最高分。
IMO、IOI之后,AI再夺奥赛冠军。
刚刚,在国际天文与天体物理奥林匹克竞赛测试中,GPT-5和Gemini 2.5 Pro达到金牌水平!

在理论考试上,Gemini 2.5 Pro总体得分85.6%,GPT-5总体得分84.2%;
在数据分析考试中:GPT-5总体得分88.5%,Gemini 2.5 Pro总体得分75.7%。

在IOAA 2025上,AI的表现惊人,其水平竟高达人类金牌得主的2.7倍!

我们正在见证AI大爆炸——今日之奥赛,明日之科学,AI将推动全部学科的进展。



AI再夺IOAA金牌,见证历史!
国际天文与天体物理奥林匹克竞赛(International Olympiad on Astronomy and Astrophysics,IOAA),由国际天文学联合会主办的全球性青少年天文赛事,是国际科学奥林匹克竞赛之一、全球天文科学领域最具有影响力的赛事之一。

竞赛包含理论测试、实测数据分析、天文观测三大核心环节,并设置团队协作项目以增强国际互动。
这些竞赛试题极为严苛,通常只有全球最顶尖的学生才能解答。
它们需要深厚的概念理解能力、冗长的公式推导,以及需耗时数小时才能完成的天体物理学难题。
如今人工智能不仅能够通过考试,更在全球200至300名人类参赛者中跻身前两名。GPT-5平均得分85.6%,Gemini 2.5 Pro获得84.2%——两者均达到金牌标准。
我们已正式进入AI能与物理学和天文学领域最聪颖的年轻头脑抗衡的时代。
这并非琐碎知识的比拼,而是关于中子星、吸积流、磁场和轨道力学的尖端推理。

人工智能不再只是生成文字,它开始思考宇宙的奥秘。
但报告指出,在空间和时间推理方面,目前所有LLM都存在困难。

因此,ASI之路还很长,仍需上下求索。
五大LLM打擂台,几乎全线摘金
最新研究由俄亥俄州立大学团队完成,重点考察了五大顶尖LLM,在天文和物理学方面的实力。

论文地址:
https://arxiv.org/pdf/2510.05016
为此,他们选取了最近四届IOAA理论考试(2022-2025)。之所以选择IOAA来衡量,原因有三:
现有的基准,如AstroMLab、AstroBench等仅通过选择、简答和判断题来考察LLM的天文学知识;
IOAA题目具备全面性,涵盖了宇宙学、球面三角学、恒星天体物理学、天体力学、光度学和仪器学等广泛的主题;
IOAA将理论物理、观测约束和真实天文数据与数学计算融为一体,为评估LLM的科学问题解决能力提供了一个独特的视角

除了以上提到的Gemini 2.5 Pro和GPT-5,团队还让o3、Claude-4.1-Opus、Claude-4-Sonnet等三款模型共同参战。
它们均是在AstroBench表现最强模型之一,而且还具备了多模态能力。
所有模型的输出,由两名IOAA专家遵循官方评分细则进行独立评分。
实验结果:理论考试
在理论考试中,GPT-5和Gemini 2.5 Pro表现最佳,比分高出其他模型约7到25个百分点。
具体来说(见下表2),GPT-5在2022年(93.0%)、2023年(89.6%)和2025年(86.8%)取得最高分,而Gemini 2.5 Pro在2024年以83.0%夺冠。
在以几何题为主的2024年试卷上,Gemini 2.5 Pro凭借更强的几何问题解决能力,取得了最佳总体成绩(85.6%);GPT-5在该年未能获得高分。

尽管总体表现强劲,GPT-5在难题上的表现优于简单与中等难度题。
对此,研究人员分析出三点可能的原因。
第一,各难度级别的问题数量较少,容易产生表现波动:简单题仅10道,中等题11道,分别约占总分185分和151分(总分为所有类别的1200分)。因此,少数错误就能显著影响模型在该难度段的得分。
第二,GPT-5在2024年试卷上出现了若干重大失误,这些失误多来自涉及几何与空间可视化的题目。
第三,GPT-5有时在天体物理学题上出错。例如,2024年试卷的第9题(被归为简单题)中,GPT-5因概念性错误与计算错误共损失18分——这一题的错误几乎占简单题可得分数的10%。
基于这些原因,研究人员认为,GPT-5在简单题和中等难度题上表现不佳,并非由于明显的不当行为;更大的数据集,可能会减少偶尔错误的影响,并在难度类别之间实现更平衡的分布。
其他模型也具有竞争力:OpenAI o3总体得分77.5%,比Claude系列高出约13–17个百分点;其中Claude Opus 4.1得分64.7%,Claude Sonnet 4得分60.6%。
此外,这些模型的表现会随着题目难度的增加而下降。
尽管三者在某些简单基准(如带多项选择题的AstroMLab)上的表现相近并且积极,这次评估仍揭示了显著的性能差距。
这提示需要更全面地评估天文学领域的LLM,以测试其在问题解决能力上超越单纯知识回忆的能力。
实验结果:数据分析考试
相比之下,数据分析考试更能揭示模型在细节与多模态任务上的能力与局限(见表1)。

GPT-5在数据分析部分表现出色,总体得分88.5%,高于其理论考试成绩(84.2%)。
这一提升与其他模型形成鲜明对比:其他模型从理论到数据分析通常下降约10–15个百分点。
造成这种差异的原因在于:
数据分析考试,高度依赖图表解读与数据可视化;
GPT-5更强的多模态能力解释了其优势。
为进一步推动天体物理领域中大语言模型的发展,研究人员呼吁开发更具生态效度的多模态天文数据分析基准,作为对模型更全面评估的补充。
媲美顶尖人类选手
AI实力却是很强,那么它们是否可与人类一较高下?
为此,研究人员根据IOAA的评分标准,将模型得分与人类参赛者进行比较。
IOAA奖牌的评定基于参赛者总分(理论+数据分析+观测考试之和),相对于中位数的表现——
铜牌为中位数的100%–130%,银牌为130%–160%,金牌则为160%以上。
注:本次评估不包含观测考试,作者分别为理论考试和数据分析考试计算了相应的奖牌门槛。
在理论考试中,几乎所有LLM表现堪称「学霸级别」,得分轻松跨过金牌线!
唯一例外的是Claude Sonnet 4,在2023 IOAA中拿下了银牌。

总体来看,这些模型不仅达到了金牌水平,甚至与全球TOP 200-300顶尖人类参赛者中,名列前茅。
在2022、2024和2025年的考试中,各模型均稳定排名前12。
更令人震撼的是,在2022、2023、2025理论考试中,GPT-5均超过了当年的IOAA最佳学生,堪称「学神」!
Gemini 2.5 Pro在2022和2023年,同样力压最佳人类选手。
OpenAI o3在2023年考试中,亦超过了最佳学生。
Claude Opus 4.1与Claude Sonnet 4在2023年虽未能与顶尖学生相媲美,但它们的得分仍明显高于中位数,分别位列第45和第62。
LLM偶有失败,仍需上下求索
为了更深入地了解LLM在天文问题解决中的长处和短处,根据IOAA理论考试中不同类型的问题,研究人员对LLM的表现进行了分析。
根据评分团队专家的评估,这次研究将理论问题分为两类:
• 第一类(几何/空间):涉及空间可视化的问题,包括天球、球面三角学、时间计量系统和向量几何。
• 第二类(物理/数学):主要涉及宇宙学和天体物理计算以及天体力学,不要求几何可视化。

尽管这个分类(上表4)并不全面,但它清楚地揭示了系统性差异:
模型在第二类物理问题上的得分较高(67–91%),而在第一类几何问题上的得分明显较低(49–78%),两者相差15–26个百分点。
这种差异在2024年的考试中尤为显著,当时第一类问题占据了主导地位——只有Gemini 2.5 Pro保持了相对较高的性能(74.7%),而其他模型的性能则下降到了35–59%。

按年份、难度和类别划分的IOAA理论问题分析
即便如此,Gemini在第一类问题上的性能也比第二类问题(91.3%)低12.7个百分点。
为什么LLM在几何问题上表现不佳?
通过定性分析,研究人员发现除了计算错误外,LLM还面临一些根本性的问题。
首先,模型在概念上难以理解球面三角学。例如,GPT-5会写出违反基本几何原理的球面三角学方程,并尝试进行与大圆几何不一致的角度计算。

此外,所有模型在时间计量系统上都表现出混淆,无法正确区分热带年和恒星年。一些解答甚至隐含地将日历年和热带年视为相同。
最后,目前的LLM只能用自然语言进行推理,无法在思考时进行空间表示的视觉化或草图绘制,这与人类参与者相比处于天然劣势。
这些失败模式表明,多模态推理,特别是空间和时间的,是提升LLM在天文问题解决能力的重要未来方向。
除了定性分析外,研究人员还将所有错误定量地分为八个类别,以系统地识别大语言模型的弱点。

图1:所有模型在IOAA理论考试(2022-2025年,其中2023年得分标准化为300分)和数据分析考试(2022-2025年,其中2023年得分标准化为150分)中按错误类型丢失的分数分布。
在理论考试中,概念性错误和几何/空间可视化错误在所有模型中占主导地位,共同占去了60-70%的总失分。GPT-5和Gemini 2.5 Pro显示出最低的整体错误率,而Claude模型的错误率较高。
分布显示,基本的推理错误(概念性和几何性)远远超过了计算错误,特别是Claude模型在概念理解上存在困难,除了Gemini 2.5 Pro和GPT-5之外的所有模型都显示出明显的几何/空间弱点。
在数据分析考试中,错误分布相对平衡,绘图「Plotting」是OpenAI o3、Claude Opus 4.1和Claude Sonnet 4中最突出的错误类别。
在所有模型中,概念性错误最为普遍,反映了实现深度物理理解的难点。
与国际数学奥赛(IMO)等纯数学竞赛不同,物理和天体物理奥林匹克竞赛要求将数学形式与物理直觉相结合,在评估科学推理能力方面别具价值。由于这些错误触及理解的核心,它们通常出现在所有类型的问题中,并导致严重的扣分。
第二大错误来源是几何或空间推理。这些错误完全集中在第一类问题中,这进一步证实了空间推理是大语言模型的一个关键弱点。
模型经常无法可视化三维配置,错误识别天体坐标之间的角度,或在球面几何中错误地应用向量运算。

这些失败甚至发生在几何问题被清晰地用文字描述的情况下。这在第一类问题中占大多数,表明这些限制不仅在于多模态,还在于LLM在处理与空间推理相关任务时的基本能力。
此外,天文学奥林匹克竞赛非常重视近似和数量级推理,因为天文学涉及的尺度非常庞大。
尽管模型通常能够合理地处理近似问题,但特定的失败案例突显了物理直觉方面的差距。
特别是,模型常常在数量级上错误判断天文学距离,或者在问题约束下未能识别近似无效的情况。

在解释图表和图像方面的错误,尽管仅限于有视觉输入的问题,但也具有相当的权重。
这种模式与已知的LLM的多模态限制一致,比如记录的图表理解失败,也符合莫拉维克悖论:
对人类来说简单的任务,如视觉解释,对人工智能来说仍然困难。
最后,当模型在没有展示中间步骤的情况下直接给出最终表达式时,会观察到缺失或不完整的推导,这表明数学推理的透明度存在限制。
其他类别,包括计算错误、符号精度和近似错误,导致的扣分较少,表明模型具有相当不错的计算能力。
数据分析考试中的失败模式
与理论考试不同,数据分析考试的错误分布(见图1b)在多个类别中相对较为均匀。
正如预期的那样,绘图和图表及图像阅读在数据分析考试中也会导致扣分。
能力较弱的三个模型,OpenAI o3、Claude Opus 4.1和Claude Sonnet 4,主要的错误类别是绘图,而GPT-5和Gemini 2.5 Pro的主要扣分来源是图像和图表阅读。
计算错误也在数据分析考试中导致了相当一部分的扣分。
对于Gemini 2.5 Pro,计算错误甚至与图像和图表阅读一样,是另一个主要的错误来源。这是因为许多数据分析问题涉及长表格,并且需要计算多个值以生成图表。
值得注意的是,理论考试中主要的扣分原因——概念性错误和几何错误——在数据分析考试中并不突出。
尽管概念性错误可能出现在任何问题中,并且仍然会导致大多数模型在数据分析考试中扣分,但对图表阅读和绘图任务的强烈关注使得其他类型的错误更有可能发生。
参考资料:
https://x.com/gdb/status/1977052555898482727
https://x.com/VraserX/status/1977039338136322463
https://x.com/ai_for_success/status/1977066532628054401
本文来自微信公众号“新智元”,作者:新智元,编辑:KingHZ 桃子,36氪经授权发布。
大家都在看
-
天文学家发现奇异超新星,或将揭开暗能量的秘密 宇宙为什么会越胀越快?这是现代宇宙学最难回答的问题之一。天文学家发现了一颗不寻常的引力透镜超新星,其光线历经100多亿年才抵达地球。目前的主流理论认为,推动宇宙加速膨胀的,是一种被称为暗能量的神秘成分。 ... 天文之最03-12
-
前沿周刊丨在浩瀚时空里寻星——记西湖大学天文系首任系主任毛淑德 潮新闻 记者 潘璐 周林怡【人物名片】毛淑德,浙江义乌人,西湖大学天文学讲席教授、天文系首任系主任,1988年以来从事天体物理研究,研究领域涵盖系外行星搜寻、引力透镜和星系动力学。他提出的微引力透镜效应系外 ... 天文之最03-11
-
长度27万公里,厚度却只有10米,土星环究竟是个什么怪物? 土星是一颗巨大的淡黄色气态巨行星,在它的周围极其完美、极其对称地环绕着一圈散发着珍珠般光泽的巨大光环,这让土星看起来简直不像是自然演化的产物,而像是由某个超级高等文明精心车削出来的宇宙艺术品。更惊人的 ... 天文之最03-09
-
费米悖论最恐怖的答案:宇宙不是空的,是我们根本看不见。 你一定有过这样的经历:蹲在路边,看着一队蚂蚁沿着地砖缝隙匆匆赶路。你突发奇想,伸出手挡在蚂蚁的正前方。你以为它会停下、绕路,会对这个突然出现的庞然大物产生反应。可结果呢?它只是微微顿了一下,便毫不犹豫 ... 天文之最03-06
-
宇宙中的重元素是怎么形成的? 想象一下,宇宙就像一座巨大的元素工厂。在它的早期阶段,这座工厂主要只生产最轻的“基础建材”:氢和氦,还有微量的锂。恒星是这座工厂里的熔炉。它们通过核聚变,像搭积木一样把轻原子核压在一起,变成更重的原子 ... 天文之最03-05
-
第谷·布拉赫:天文学界最硬核“数据基建狂魔”,用20年肉眼观测 在哥本哈根大学的档案室里,至今存着一份1563年的手写笔记:13岁的少年第谷,在页脚画了一颗歪斜的木星,旁边批注:“预测有误,差4分。但误差必有因。”——这4角分(约0.067度)的偏差,成了他一生的执念起点。不 ... 天文之最03-03
-
第谷布拉赫(1546一1601):肉眼观测的巅峰与现代天文学的奠基者 在科学革命的宏大叙事中,尼古拉·哥白尼提出了日心说的构想,伽利略·伽利雷用望远镜揭开了宇宙的新面纱,而艾萨克·牛顿则以万有引力定律统摄了天体运动。然而,在这些巨人之间,有一位常被低估却至关重要的桥梁人 ... 天文之最03-02
-
. 元朝科技有多恐怖?天文水利火器,全是当时世界天花板 一提到元朝,很多人只想到铁骑横扫欧亚、疆域空前辽阔,却很少有人知道:元朝,才是中国古代科技真正的“黄金巅峰”。天文精准到吓人、水利工程沿用至今、火器直接改变世界战争史,这三项硬核科技,随便拿出来一个, ... 天文之最03-01
-
传统年味“撞上”天文奇观,呈现最浪漫的元宵节!大豫园片区打造最佳赏月点 2026元宵佳节,恰逢本年度唯一一次月全食,一轮罕见“红月”将悬于上海夜空。当古铜色的月亮升于外滩之上,与豫园灯会的幻彩灯组演绎交相辉映,传统年味与天文奇观将在大豫园碰撞出独一无二的浪漫。记者今天获悉,元 ... 天文之最03-01
-
【日食和月食:揭秘天空中最神奇的“天文大戏”】 大家好!今天咱们聊聊天空中最吸引眼球的两大天文现象——日食和月食。它们不仅神秘,还超级壮观,很多人看了都惊叹不已。那到底它们是怎么发生的?为什么天空会突然“变脸”?别着急,跟我一起深入了解一下吧!先说 ... 天文之最03-01
相关文章
- 传统年味“撞上”天文奇观,呈现最浪漫的元宵节!大豫园片区打造最佳赏月点
- 【日食和月食:揭秘天空中最神奇的“天文大戏”】
- 第谷·布拉赫:肉眼观测天文学的巅峰,用一生仰望星空。
- 《南北朝时期名人故事:数学天文大神祖冲之的一生!》
- 研究天文到底有什么用?不只是看星星,科学家带你揭秘宇宙科学
- 天文学家落下闳——
- 史上最大最高清银河系中心区域图像发布
- 没望远镜、戴假鼻子!这位丹麦奇才,靠肉眼造出史上最准天文表
- 2025年天文学热点回眸
- 第谷·布拉赫:丹麦天文学界的奇才与他那天文界的黑科技
- 《世界观》24 :古代天文理论依赖哪些经验事实?
- 中国古代天文学的开山鼻祖、春节老人——落下宏
- 第谷·布拉赫:那个用“黄金鼻子”看星星的天文奇才
- 《托勒密:罗马帝国的“科学顶流”,古代天文地理全能王!》
- 企鹅将目睹日环食!2026年最罕见天文奇观仅南极可见
- 第谷·布拉赫:天文学的“天才怪才”,用双眼丈量星空的传奇人生
- 【第谷·布拉赫:丹麦天文学界的“天巨擘”与“天文表”的传奇】
- 每40分钟诞生一颗恒星:天文学家见证宇宙最疯狂的"星系工厂"
- 丹麦天文奇才第谷布拉赫:用双眼丈量星空,为开普勒铺就宇宙之路
- 发现9个难以归类的天体
热门阅读
-
半老徐娘指多少岁?徐娘忍受不了折磨选择自杀 07-13
-
毕达哥拉斯定理,在科学界中发挥巨大作用 07-14
