在党的二十届三中全会上,中央提出要健全生成式人工智能的发展和管理机制。作为新兴技术,生成式人工智能正在迅猛发展,并对社会经济产生深远影响。尽管我国目前已经上线了超过190个生成式AI大模型,用户超过6亿,但技术带来的安全风险、伦理问题以及法规不足依然是亟待解决的挑战。为了推动这一技术的健康发展,我们必须守牢安全底线,完善管理机制。

党的二十届三中全会审议通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》(下称《决定》)对健全网络综合治理体系作出系统部署,其中提出,要完善生成式人工智能发展和管理机制。日前,中央网信办主任庄荣文在接受新华社记者采访时强调,(在生成式人工智能领域)要守牢安全底线,防范滥用风险。截至目前,我国完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达190多个,注册用户超过6亿。下一步,将继续促进生成式人工智能技术在工业、农业及教育、医疗、卫生等领域落地应用,激活人工智能技术赋能实体经济发展的作用,合力推动人工智能在传统行业领域应用中取得更大突破。生成式人工智能是一把双刃剑,在给许多领域带来重大变革的同时,也产生或孕育着国家竞争力风险、技术安全风险、网络安全风险、经济社会风险等各种风险。这是强调要完善生成式人工智能发展和管理机制的出发点所在。生成式人工智能是世界性赛道,各国都非常重视,有一些经验可以借鉴,但核心领域的创新只能依靠自己的努力。核心领域有硬件和软件两个方面。对前者来说,要着力促进自主可控算力芯片产业发展,这是生成式人工智能发展的基础性要素,也是当前和今后一段时间的“卡脖子”所在。去年8月工业和信息化部等四部门发布的《新产业标准化领航工程实施方案(2023—2035年)》指出,要研制新型存储、处理器等高端芯片标准,开展人工智能芯片、车用芯片、消费电子用芯片等应用标准研究。这将对我国自主可控算力芯片发展起到引导和激励作用。当前,我国能为公众提供服务的生成式人工智能服务大模型已达190多个,但在产出成果和应用效果上还与先进国家存在一定差距,加速自主大模型研发和应用仍是各方面临的紧迫任务。“自主”是重点,发挥社会各方面的合力作用是路径。在生成式人工智能迅猛发展的同时,防范滥用风险也成为公众关注的重要方面。正如上述采访中庄荣文强调的那样,今后要指导相关平台企业合法合规向网民提供优质服务,防范技术滥用带来的个人数据泄露、虚假信息生成、知识产权侵权等风险。另外需要强调的是,需要防范的风险还包括涉及用户生物识别信息、健康信息等个人数据泄露而引发的诸多问题。这涉及生成式人工智能应用的伦理道德问题,技术发展和应用不能违背伦理道德是一个基本要求。为此,本月1日正式生效的欧盟《人工智能法案》明确,所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统都将被禁止。我国去年8月施行的《生成式人工智能服务管理暂行办法》(下称《暂行办法》)明确规定,有关生成式人工智能的内容要合法合规、禁止算法歧视、不得生成虚假信息、不得侵犯他人合法权益等相关内容。这对生成式人工智能可能带来的伦理道德风险具有重要的警示作用。完善生成式人工智能发展和管理机制还需要加强法规建设,并进而形成协同共治的局面。在加强法规建设方面,《暂行办法》的制定施行在全球范围内具有领先意义,但这仅仅是一部行政法规,还有较大的提升空间。在今年的全国两会期间,有多名人大代表提出了关于制定人工智能法的议案,建议对人工智能发展和崛起所导致的各类法律问题开展立法研究,适时制定出台人工智能法。因为这些代表认为,《暂行办法》仍不能较全面地涵盖人工智能所引发的各类问题,不足以做好与现行法律的衔接工作。在协同共治方面,要进一步推动人工智能的安全和应用治理,政府监管、行业自治、企业自律、社会监督协调一致。总而言之,近年来,我国生成式人工智能快速发展,新技术不断突破,新业态持续涌现,为经济社会发展注入了强劲动能,但也面临着许多亟待解决的问题,包括强化自主可控、引导和规范应用落地、防范滥用风险、实现协同共治等。这些问题的解决将为推动生成式人工智能产业发展、技术进步与安全保障提供坚实基础。

总结来看,生成式人工智能的快速发展带来了许多机遇与挑战。虽然我们在技术应用和创新方面取得了显著进展,但仍需加强法律法规建设、完善安全防范措施,并促进各方面的协调合作。只有这样,才能确保生成式人工智能技术的安全、合规应用,并充分发挥其对经济社会发展的积极作用。