OpenAI 团队推出了一个名为 PaperBench 的基准测试,旨在评估AI代理在复制先进 AI 研究方面的能力。该测试要求 AI 代理从头开始复制20篇2024年国际机器学习会议(ICML)中的重点和口头论文,整个过程涉及理解论文贡献、开发代码库以及成功执行实验。
为确保评估的客观性,研究人员设计了详细的评分标准。这些标准将每项复制任务分解为多个层级的子任务,并设定明确的评分标准。PaperBench 一共包含8316个可以单独评分的任务,所有评分量规均与每篇论文的作者合作开发,以保证其准确性和真实性。
为了实现大规模评估,研究团队还开发了一种基于大型语言模型(LLM)的自动评分系统。这一系统能够根据预设的评分标准对 AI 代理的复制尝试进行评分,同时,团队也为该评分系统建立了独立的基准,以评估其性能。
在对多个前沿 AI 模型进行评测后,研究发现表现最佳的代理是 Claude3.5Sonnet(新版本),其平均复制得分为21.0%。为了进一步验证这些结果,研究人员还邀请了多位顶尖的机器学习博士生尝试 PaperBench 的部分任务,结果显示,目前的 AI 模型尚未超越人类的复制能力。
为了推动后续研究,OpenAI 团队决定将其开发的代码开源,以便更多的研究者能够利用这一平台,深入探索 AI 代理的工程能力及其在复制 AI 研究方面的潜力。
项目代码:https://github.com/openai/preparedness/tree/main/project/paperbench
划重点:
🌟 PaperBench 是一个新基准,用于评估 AI 代理复制 AI 研究的能力,涉及20篇 ICML2024论文。
🔍 该测试设计了8316个可单独评分的任务,评分标准与论文作者共同开发。
🤖 Claude3.5Sonnet 是测试中表现最好的模型,但仍未超越顶尖人类研究者。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则