随着AI技术的快速发展,学者们在外滩大会上探讨了一个关键的问题:如何在充满机遇的背景下有效治理人工智能。此次会议围绕AI面临的伦理与安全风险进行了深入分析,明确指出治理的重要性。

AI治理与伦理:迎接人工智能的奥本海默时刻

人工智能发展已进入奥本海默时刻?9月5日下午的外滩大会科技伦理见解论坛上,中国工程院院士与来自清华大学、中国科学院大学等知名学府的专家学者们齐聚一堂。值得关注的是,对AI前景怀有期待的同时,学者们也不可避免有着担忧与反思。

所谓“奥本海默时刻”,是指科学家奥本海默在核武器研发和使用过程中,所面临的道德和伦理困境。“发展机遇前所未有,安全风险也严峻复杂”,中国工程院院士吴世忠借此来形容当下AI治理中所面临的难题。

AI治理与伦理:迎接人工智能的奥本海默时刻

9月5日下午,外滩大会科技伦理见解论坛现场(牛益彤 摄)

近年来,以ChatGPTSora为代表的人工智能技术,给世界带来巨大机遇,也带来了巨大的风险挑战,如隐私泄露、算法偏见等问题层出不穷。尽管人们已经尝到不少AI发展的向好趋势,但在场专家们都有着相似判断——人工智能的治理一定不能落后,甚至应该走在前面。

“不能让技术以自由落体的趋势发展”,清华大学公管学院教授、人工智能国际治理研究院副院长梁正说,“如果我们能在人工智能发展上走在前列,那么在管理上也不能脱节”。

专家们普遍认为,人工智能的发展是符合技术发展规律的,“从现在的时间节点来看,还处于产业化的发展初期”,梁正说。

从技术发展的角度来看,无论是从核武器、疾病控制的发展变迁,还是飞机、汽车等交通工具的逐步规范,其他技术在发展中也经历过类似的问题。而历史留给我们的经验是,必须主动选择和谋划发展方向。

“要从打补丁式的被动防范,到主动出击”,中国科学院自动化研究所研究员、联合国高级别人工智能咨询机构专家组成员曾毅说。在他看来,系统的自适应与安全也应是人工智能的能力,两者并非相互掣肘的关系,但这需要过程。

换句话说,要想让人工智能从“非善非恶”的判断题走向“知善知恶”的分析题、从“人工智能”成为“人工智慧”,显然还需要完备地布局。

从外部来说,人工智能的治理共识显然也引发了不少学者的思考。国家创新与发展战略研究会副会长、中国科学院大学经管学院教授吕本富将人工智能形象地比作“孙悟空”,比起压在山下,不如为其戴上紧箍咒,更好地发挥其价值。

但就算是紧箍咒,是紧是松也值得思量。

国际视野下,不少国家已意识到人工智能管理上的空白。据吴世忠介绍,当前全球已有31个国家共计通过123项涉及人工智能相关内容的法律,如欧盟议会今年3月正式通过《人工智能法案》、美国总统拜登于去年10月签署第14110号行政令……各国都正在尝试更新人工治理动态。刚刚过去的人工智能大会上不难看出,中国在这方面显然走在前列。

也许未来某一天,人工智能的发展真的能从合乎伦理走向具有道德,“不必使人工智能无所不在,负责任地稳健发展、适度使用,才能使人工智能扬帆起航。”曾毅说。

专家们的共识表明,人工智能的安全治理不仅是技术发展的必要条件,更是社会进步的重要保障。未来,期待通过有效的治理和合理的法规,让AI在安全的轨道上持续发展,真正发挥其价值。