牛津大学AI研究员在最新研究中发出警告,指出大型语言模型可能对科学完整性构成威胁。研究呼吁改变LLMs使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。然而,信任LLMs作为信息来源可能导致科学真相受损,因此呼吁负责任的LLMs使用。研究同时警告,如果LLMs在生成和传播科学文章中被随意使用,可能会导致严重危害。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则