“对AI研发的规范会适得其反。过早监管AI只会加强大型科技公司的主导地位并扼杀竞争。”
AI三巨头之一,Meta首席科学家杨立昆(Yann LeCun)在近日接受英媒《金融时报》采访时这样说。
他是美国国家科学院、美国国家工程院和法国科学院院士,也因发明卷积网络,以及使用卷积神经网络(CNN)的光学字符识别和计算机视觉方面的工作,而获得2019年图灵奖(相当于“诺贝尔计算奖”),是公认的AI界泰斗。
在此次采访中,杨立昆对AI监管整体呈现较为消极的态度。他认为,现在监管AI模型就像在1925年监管喷气式航空飞机一样(当时这种飞机还没有被发明出来),监管AI的要求源于一些领先的科技公司的“傲慢”或者“优越感”,因为这些公司认为只有他们才能安全地开发AI。
“但事实上,关于‘AI可能会带来风险’的辩论还为时过早,直到我们能够设计出一个系统,使其在学习能力方面能与小猫媲美——然而我们目前并没有。”杨立昆说。
同时,杨立昆也对当下AI模型的现状“泼了冷水”,他表示,当下的AI模型并不像一些研究人员声称的那样强大,OpenAI和Google DeepMind对问题的复杂性“太过乐观”,在AI系统接近人类水平的智能之前,仍然需要一些“概念上的突破”。
“这些模型既不了解世界是如何运作的,也没有能力进行规划,更无法进行真正的推理……就像我们现在其实是没有完全自主的自动驾驶汽车的,因为没有一辆汽车能在20个小时左右自我训练如何驾驶,但17岁的孩子就可以做到。”他说。
不过,在开源问题和AI更加遥远的未来上,杨立昆反倒更加乐观。
他提出,模型的开源能够刺激竞争,并使更多样的人员参与到构建和使用AI系统的工作中。
面对有些反对者所提出的,能力强大的模型如果开源,可能会增大不良行为者进行虚假信息网络战和生物恐怖主义的风险,杨立昆表示,这种“控制快速发展的技术”的论点在互联网建立之时就已经提出,如今在AI领域再次重演。但技术之所以蓬勃发展,就是因为它需要是一个开放、去中心化的平台。
事实上,杨立昆所在的Meta正是当前业内的开源风向标,旗下的大语言模型羊驼(LLaMA)在今年2月发布并同时公开模型代码和数据。截至10月初,开源社区Hugging face中使用了Llama 2开源协议的大语言模型已经超过了1500个,而在社区的开源大语言模型排行榜中,前十名有八个都基于Llama 2开发。
来自斯坦福大学的一项研究,Llama 2是当前业内开源程度最高的大模型。
而蓬勃发展的AI大模型如何影响人类的未来,甚至为之带来生存风险,也是一个近一两年以来讨论度颇高的话题。
对此,杨立昆的观点是——人们被科幻小说的场景所感染,相信智能机器人如果变得比人类更聪明,就会尝试控制人类,但这种想法是“荒谬”的,智力的高低与统治欲望并无关系。就算发展到这一地步,开发者也可以通过将“道德品质”编码到这些系统中来控制,就像人们制定法律来管理人类行为一样。
但他也承认,机器或AI有朝一日会在大多数领域比人类更聪明:
“毫无疑问,将会有比我们更聪明的机器帮助我们。问题是:这是可怕的还是令人兴奋的?我认为这很令人兴奋,因为这些强大的AI系统将在我们的控制之下,帮助人类应对重大挑战,比如应对气候变化,治疗疾病等等。”
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则