ChatGPT等大型语言模型在训练过程中会记住一定数量的原始训练数据,攻击者可以通过特定的攻击方法,从模型中提取大量训练数据,威胁数据所有者的隐私。研究人员建议开发和使用大型语言模型时,应做好数据安全保护措施,防止数据泄漏。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则