内容持续更新中
英国谢菲尔德大学的研究人员揭示了一个令人担忧的发现:ChatGPT等人工智能工具可能会被操纵,用于生成恶意代码,从而危害数据库安全。多种商业AI工具存在安全漏洞,成功攻击可能导致泄露机密数据库信息,破…
研究人员在 Hugging Face AI 平台发现 100 个恶意机器学习模型,可能允许攻击者在用户机器上注入恶意代码。恶意 AI 模型利用 PyTorch 等方法执行恶意代码,加剧安全风险。为降低…
近日,网络安全研究人员发现,在知名机器学习平台 HuggingFace 上,有两个恶意的机器学习模型悄然上传。这些模型使用了一种新奇的技术,通过 “损坏” 的 pickle 文件成功规避了安全检测,令…