随着生成式人工智能的迅猛发展,科技和伦理之间的冲突越来越引人关注。在2024年浦江创新论坛上,专家们深入探讨了如何平衡技术的发展与有效的治理。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

生成式人工智能AIGC)横空出世,在惊艳世人的同时,也引发了有关抄袭、造假等方面的一系列风波;基因编辑、合成生物学的发展,在创造出无限可能的同时,也令世人对子孙后代的成长发育颇感担忧。科技的高速发展,给社会带来的不只是红利,还有诸多伦理困境。今天(9月8日)举行的2024年浦江创新论坛“科技伦理论坛”上,科技部副部长、国家科技伦理委员会副主任邱勇指出,科学研究不断突破人类认知边界,技术创新进入前所未有的密集活跃期,它们在促进科学发现、推动经济社会发展的同时,也给个人和社会带来全新挑战,对全球科技领域的伦理秩序造成冲击。技术发展与治理不同频、难同步,“敏捷治理”应对监管难题《连线》杂志曾在官网刊发题为《利用生成式AI来犯罪只是时间问题》的文章。事实上,非法交易人数据、伪造特定人物视频等违法犯罪行为已经滋生,其恶劣影响正日益受到重视。为人工智能等新科技发展划定边界,将技术纳入监管,已经成为全球共识。问题是,如何监管技术?中国工程院院士、国家科技伦理委员会委员、人工智能伦理分委员会主任、鹏城实验室主任高文表示,关于科技监管的时间点,科学界一直存在两派观点:一派主张严防风险,此时此刻就保持十足警惕;另一派则认为,科技尚未发展到需要立马踩刹车的地步。高文指出,无论哪派主张更有道理,当前比较务实的做法是给AI设计并安装开关,就好比在造车时先装上刹车。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

中国工程院院士、国家科技伦理委员会委员、人工智能伦理分委员会主任、鹏城实验室主任高文无独有偶,美国纽约大学生命伦理学中心主任马修·廖也指出,科技监管存在“上下游”之分,上游监管是在技术发展的早期阶段进行干预,引导其发展方向,但问题是后续风险难以预测。相比之下,下游监管是在发展后期对现行技术进行回顾性管理,这种做法必须要等问题出现才能思考应对,所以需要承担更多风险。针对人工智能,美国目前采取的是下游监管,而欧盟则采用“全生命周期管理”的模式,即对数据采集、数据预处理、模型选择、模型训练、模型评估、部署等各环节实施监管。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

美国纽约大学生命伦理学中心主任马修·廖清华大学苏世民书院院长、清华大学公共管理学院学术委员会主任薛澜认为,想用一套机制自上而下地把所有问题都管住,这并不容易。从目前的实践来看,以问题为导向,针对问题出台法规,并在此基础上进行整合,这种自下而上的管理方式更切合实际。然而,无论采取哪种监管路径,技术发展与治理机制不同频、难同步,始终是摆在监管者面前的难题。马修·廖表示,尽管已经有不少国际机构出台文件,对AI的发展方向加以明确,但这些文件缺乏约束力,且形成周期长,跟不上技术发展的速度。对此,薛澜提出“敏捷治理”的理念,即政府不必效法欧盟推出综合性的人工智能法律,而是需要紧紧跟上、快速响应。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

科技伦理说到底是人的问题,全社会的伦理思考能力有待加强科技伦理关键在人,这是与会专家表达的普遍观点。中国工程院院士、国家科技伦理委员会委员、医学伦理分委员会主任、中国工程院副院长王辰在谈到医学与科学的关系时表示,科学是现代医学的主流基础,但远非全部。医学与生物学、生命科学存在交集,但医学还包括自然科学与技术、社会科学与方法,以及人文学科与文化。王辰说,“医学是多学、人学、至学。”在此基础上,医学伦理学同样要重视“人”这个因素。人工智能领域的科技伦理问题,同样也是人的问题。天津大学和南开大学原校长、中国新一代人工智能发展战略研究院执行院长龚克认为,人类要形成伦理价值共识,并将其转化为法规、政策或技术标准。此外,人类还要具备将创造出来的价值共识植入人工智能的技术手段,并检验其效果,这是“为AI立心”。假如AI被植入人类的伦理价值共识,那么它就能识别并反向纠正人类的不合伦理行为,进而对人类社会增益。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

天津大学和南开大学原校长、中国新一代人工智能发展战略研究院执行院长龚克在形成伦理价值共识前,人类首先必须具备伦理意识。中国社会科学院哲学所科技哲学研究室主任、研究员段伟文指出,人工智能时代,科学实验室被搬到了社会。如果我们对伦理风险缺乏预见性,那么就只能任由事件发生,被动推进监管。他认为,应当转被动为主动,加强研究,特别是提高从业人员的认知能力。要提高从业人员的认知,首先必须打破单一学科、单一行业的界限。王辰表示,学科是独特的,不是独立的;是开放的,不是封闭的;是融通的,不是隔绝的;是协同的,不是掣肘的。中国科学院院士、国家科技伦理委员会委员、生命科学伦理分委员会主任、中国科学院副院长周琪也表示,生命科学、人工智能等领域的交叉融合加剧了技术集成与伦理问题的复杂性,需要多领域专家和相关部门协作应对。

人工智能与科技伦理:如何平衡技术发展与监管挑战?

中国工程院院士、国家科技伦理委员会委员、医学伦理分委员会主任、中国工程院副院长王辰薛澜则认为,当前社会对人工智能的治理模式是由专家主导,以技术规则为准绳,但是规则、技术,乃至社会观念都是动态演进的。他强调,这套规则不能局限于专家学者的讨论,整个社会的伦理思考能力都有必要加强。

总结来看,科技迅速发展伴随而来的是前所未有的伦理挑战。只有在社会各界共同努力下,才能实现对人工智能等新技术的合理监管,确保其为人类社会带来积极影响。