OpenAI新基准FrontierScience出炉:AI科研能力大检验,距一流科学家尚远

   发布时间:2025-12-18 00:34 作者:朱天宇

人工智能在科研领域的表现再次成为焦点。OpenAI近日推出全新基准测试FrontierScience,通过物理、化学、生物三大领域的博士级难题,检验AI系统能否突破知识记忆层面,实现真正的科学推理能力。这项测试揭示了一个关键结论:即便在标准化考试中表现优异,当前AI距离成为独立科研工作者仍有显著差距。

该基准测试包含700余道文本型题目,分为竞赛赛道与研究赛道两大模块。竞赛赛道聚焦100道短答案题目,要求在严格约束条件下完成精准推理;研究赛道则设置60个开放式子任务,涵盖量子电动力学、合成有机化学等前沿方向,需在无标准答案的情况下构建完整逻辑链条。测试特别设置"黄金组"160道题目作为核心评估样本,其中研究赛道题目由45位领域专家设计,采用10分制评分标准,7分以上视为通过。

测试结果显示,GPT-5.2在竞赛赛道取得77%的正确率,研究赛道得分25%,暂居领先地位;Gemini 3 Pro以76%的竞赛成绩紧随其后。但深入分析错误类型发现,前沿模型普遍存在推理断层、概念混淆和计算偏差等问题。例如在量子物理题目中,某模型因混淆"自旋轨道耦合"与"角动量守恒"导致全盘错误;有机化学合成路径规划中,另一模型因忽视立体选择性反应条件而设计出不可行方案。

测试设计团队刻意排除现有模型能够解答的题目,使得评估标准更为严苛。为确保评分客观性,研究赛道采用GPT-5作为自动评分系统,通过对照专家制定的评分细则进行逐项判定。尽管这种设计可能对OpenAI自家模型形成额外挑战,但开发团队强调这有助于更真实反映模型在未知领域的适应能力。测试数据表明,模型思考时间与准确率呈正相关,在给予充分推理时间的情况下,部分题目的正确率可提升15-20个百分点。

这项基准测试也暴露出当前评估体系的局限性。OpenAI坦言,现有测试框架将复杂科研过程简化为可控题目,如同"用显微镜观察森林",难以衡量模型提出创新假设的能力,也无法评估其处理多模态数据或指导实验操作的实际价值。测试团队正在开发扩展题库,计划纳入更多跨学科场景和真实实验数据,同时建立长期追踪机制,观察AI系统如何切实辅助科研人员提升工作效率。

 
 
更多>同类内容
全站最新
热门内容
本栏最新