谷歌DeepMind最新研究表明,大型语言模型在没有外部指导的情况下,难以自我纠正推理错误。研究人员发现,模型仅依靠自身想法来纠正最初反应时,经常会出错。研究还发现,通过多个模型投票达成一致虽可实现自我一致,但这与真正的自我纠正还有差距。研究者表示,这项研究结果对开发需要更高安全性的应用具有重要意义。他们呼吁在认识自我纠正潜力与局限性的基础上,继续努力改进现有语言模型。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则