人工智能(AI)模型的发展速度让人眼花缭乱,技术开发者们在不断提升其性能的同时,也引发了用户对于模型表现真实度的疑虑。为了解决这一问题,由杰弗里・辛顿(Geoffrey Hinton)创办的 Vector Institute 为人工智能研究推出了《评估现状研究》。该研究通过互动排行榜对11个顶尖的开放源代码和闭源模型进行了全面评测,涵盖了数学、通用知识、编码、安全性等16个基准。
Vector Institute 的 AI 基础设施与研究工程经理约翰・威尔斯(John Willes)表示:“研究人员、开发者、监管者和最终用户可以独立验证结果,比较模型性能,并构建自己的基准和评估,从而推动改进和责任的落实。”
图源备注:图片由AI生成,图片授权服务商Midjourney
在这次评估中,表现最好的模型包括 DeepSeek 和 OpenAI 的 o1,而表现较差的模型则是 Command R+,后者在测试中显示出较低的性能,这主要是因为其是测试中规模最小且最老的模型。
研究发现,闭源模型在复杂的知识和推理任务中通常表现优于开放源代码模型,但 DeepSeek 的优秀表现表明开放源代码模型也能够保持竞争力。威尔斯指出:“在简单任务中,这些模型相当有能力,但随着任务复杂度增加,我们发现推理能力和理解能力大幅下降。”
此外,所有11个模型在评估实际问题解决能力的 “代理性基准” 上都面临挑战,特别是在软件工程和其他需要开放式推理和规划的任务中,仍有很长的路要走。为了解决这一问题,Vector Institute 开发了多模态巨量多任务理解(MMMU)基准,评估模型处理图像和文本的能力。
在多模态理解的评估中,o1展现了 “卓越” 的能力,尤其是在不同格式和难度水平下。而威尔斯强调,当前仍需更多努力以实现真正的多模态系统,能够统一处理文本、图像和音频输入。
针对评估中的挑战,威尔斯指出,评估泄露是一个重要问题,即模型在熟悉的评估数据集上表现良好,但在新数据上却不再出色。他认为,开发更具创新性的基准和动态评估将是解决这一问题的关键。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则