乍一看,某短视频直播间里,卖货的竟是某位当红明星。然而当你再定睛一看,“卖货明星”其实是借助人工智能AI)实时换脸技术的普通主播。他们选择套用明星艺人的外貌,只为增加卖点、引流卖货……

  今年以来,随着人工智能等技术的快速普及,“AI换脸”的应用范围越来越广,利用“AI换脸”,普通人可以感受娱乐氛围、影视作品也能获得创意效果。但是,当这项技术被不法分子所看中时,侵权、诈骗等违法犯罪行为也随之发生,让人防不胜防。

  那么,不法分子是如何实施“AI换脸”进行诈骗的呢?在技术上,这类诈骗往往通过非法窃取、使用他人个人数据,以及运用各种“黑灰软件”替换数据信息来实现。而其诈骗成功率之所以可以达到100%,也正是利用了“熟人效应”,通过换脸,误导受害者以为是和亲朋好友等熟知之人交谈,从而受到欺骗。

“AIGC换脸”诈骗这样防,眼见未必为实!

  面对愈加具有迷惑性的“AI换脸”技术,如何规避诈骗等风险?要用“法”打败“魔法”。这个法,不仅是方法、办法的法,也是法律、法规的法。8月15日,中国首个AIGC监管文件《生成式人工智能服务管理暂行办法》(后称《办法》)正式施行,该《办法》明确指出AIGC服务提供者要“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。去年12月发布的《互联网信息服务深度合成管理规定》也指出,提供智能对话合成人声人脸生成沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。

  此外,也有部分平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。

  综上所述,对个人用户而言,除了在形形色色的“AI换脸”中保持清醒,避免陷入虚假宣传,更重要的是面对各式各样的AI诈骗,时刻保持防范意识。现实生活中,要注意保护个人信息,提高警惕,如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款、转账时,务必通过电话、见面等途径核验对方身份,不要未经核实随意转账汇款。如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。