最近,北京互联网法院对一起备受关注的“AI声音侵权案”进行了一审判决。这一案件标志着我国在人工智能领域的法律实践迈出了重要一步。法院认定被告未经授权使用原告的声音,开发AI文本转语音产品构成侵权,并判令赔偿损失及公开道歉。这一判决不仅是全国首例,也为AI技术应用中的法律边界树立了标杆。

不久前,北京互联网法院对一起“AI声音侵权案”一审宣判,认定被告方使用原告声音、开发AI文本转语音产品未获得合法授权,构成侵权,需赔礼道歉,并赔偿原告各项损失25万元。目前宣判结果已生效。该案判罚属全国首例,但此案并非孤例。随着人工智能的深入应用,AI引发诸多新型人格权侵害行为。从AI换脸到AI复活逝者,再到AI自动生成虚假视听内容,这些行为可能无形中侵犯个人隐私和名誉,甚至可能被用于不实信息传播,是当前不可回避且亟待解决的重要议题。此次判决为ai应用设定了清晰的道德和法律边界,这清楚表明,ai应用不能在不授权的情况下,随意“偷走”公众的声音和容貌,其发展必须建立在尊重和保护知识产权,以及各项人格权的基础之上。作为一项划时代技术,AI的应用场景日益丰富,在推动社会进步的同时,也可能带来诸多不良后果,加强规范和监管势在必行。一段时间以来,围绕AI引发的新型侵权问题,有关部门已出台相关举措。例如2023年,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,以规范生成式人工智能行业发展。未来,应继续坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励AI创新发展,对AI服务实行包容审慎和分类分级监管;在完善事后监管的同时,强化预防和过程监管;依据实际案例,加快制度更新频率和速度,为AI应用划定日益清晰的边界,推动AI发展向上向善。

此次判决明确了AI技术在应用中的法律底线,提醒我们在推动AI技术进步的同时,必须加强对其应用的规范和监管。面对AI带来的新型侵权问题,相关部门已经采取了一系列措施。未来,我们需进一步完善法律法规,保障技术进步的同时,维护个人的合法权益。