乍一看,某短视频直播间里,卖货的竟是某位当红明星。然而当你再定睛一看,“卖货明星”其实是借助人工智能(AI)实时换脸技术的普通主播。他们选择套用明星艺人的外貌,只为增加卖点、引流卖货……
今年以来,随着人工智能等技术的快速普及,“AI换脸”的应用范围越来越广,利用“AI换脸”,普通人可以感受娱乐氛围、影视作品也能获得创意效果。但是,当这项技术被不法分子所看中时,侵权、诈骗等违法犯罪行为也随之发生,让人防不胜防。
那么,不法分子是如何实施“AI换脸”进行诈骗的呢?在技术上,这类诈骗往往通过非法窃取、使用他人个人数据,以及运用各种“黑灰软件”替换数据信息来实现。而其诈骗成功率之所以可以达到100%,也正是利用了“熟人效应”,通过换脸,误导受害者以为是和亲朋好友等熟知之人交谈,从而受到欺骗。
面对愈加具有迷惑性的“AI换脸”技术,如何规避诈骗等风险?要用“法”打败“魔法”。这个法,不仅是方法、办法的法,也是法律、法规的法。8月15日,中国首个AIGC监管文件《生成式人工智能服务管理暂行办法》(后称《办法》)正式施行,该《办法》明确指出AIGC服务提供者要“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。去年12月发布的《互联网信息服务深度合成管理规定》也指出,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
此外,也有部分平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。
综上所述,对个人用户而言,除了在形形色色的“AI换脸”中保持清醒,避免陷入虚假宣传,更重要的是面对各式各样的AI诈骗,时刻保持防范意识。现实生活中,要注意保护个人信息,提高警惕,如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款、转账时,务必通过电话、见面等途径核验对方身份,不要未经核实随意转账汇款。如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则