内容持续更新中
最新研究揭示大型语言模型存在关键漏洞,可能导致私人信息泄露和有针对性攻击。这种名为“模型寄生”的攻击方法可以在低成本下复制模型,并成功传递于封闭源和开源机器学习模型之间。尽管大型语言模型具有巨大潜力,…
最新研究揭示,DeepMind的大型语言模型在文本之外的领域,尤其是图像和音频数据的压缩方面表现出色。这项研究将LLMs重新定义为强大的数据压缩器,而不仅仅是文本生成模型。LLMs的性能与数据集大小相…
研究表明,大型预训练语言模型(LLM),如GPT-3,具有出色的能力,可以理解和回答人类提出的问题,协助编码工作等。最近,研究人员引入了RAIN方法,使LLM能够自我评估和改进,无需额外数据和微调。这…
纽约人工智能创业公司 Arthur 发布了开源工具 ArthurBench,用于评估和比较大型语言模型的性能。ArthurBench 可以帮助企业在特定用例上测试不同语言模型的性能,并提供准确性、可读…
本文介绍了大型语言模型在企业使用中的挑战,并指出较小的语言模型更适应企业需求。较小的语言模型操作和训练更快,准确性更高。此外,较小的语言模型具有定制能力强的优势,可以与其他数据集结合使用,为企业提供更…
DeepMind 的研究人员通过研究发现,大型语言模型容易出现阿谀奉承行为。为了解决这个问题,他们使用了简单的合成数据干预技术,并成功地减少了阿谀奉承行为的发生。研究结果显示,通过简单的合成数据微调可…