AIGC人工智能繁荣的背后,是令人恐惧的碳排放量。
二月份早些时候,谷歌微软就已经对他们的搜索系统做出了巨大的改变。两个技术巨人都投资于开发和采购能够使用大规模的语言模式的可产生的 AI软件,以了解和回答一些复杂的问题。如今,他们正在试图把它们与搜索引擎结合起来,希望给使用者提供更为全面、精确的服务。中国的一家搜索公司——百度——也表示将效仿谷歌
然而,这种对新技术的狂热背后,是一种阴暗的东西。要建立一个高性能的人工智能驱动的搜寻引擎,必须要有庞大的运算容量,并且在技术公司中增加能源消耗和二氧化碳的数量。
“我们在对因特网的信息进行检索和检索方面花费了很多精力,”英国萨里大学的艾伦·伍德华德说,“但是要把这些信息融入到一个系统中,我们需要采取多种方式。这就对数据的处理,存储,以及有效的获取提出了更高的需求。每当我们观察到联机加工流程发生变化,我们都会注意到大量的电力和冷却设备需求。我认为这一步走得不错。”
通过对面向 OpenAIChatGPT等大规模语言建模(LLM)的学习能力的培养,可以对微软的 Bing、谷歌的 Bard等类似工具进行有效的辅助,从而能够对大量的数据进行有效的分析与管理,因此这些大规模的语言建模往往由具有相当规模的“宫”(ChatGPT)所研发。
西班牙科鲁尼亚大学的电脑专家卡洛斯·戈麦斯-罗德里格斯表示:“现在,只有一些大的技术公司可以对他们进行培训。”
虽然无论是 OpenAI还是谷歌都没有公布他们的运算成本,但第三方的调查人员通过对GPT-3进行的运算进行了分析,得出了一项1287亿千瓦的功耗,而这一过程将导致550多公升的二氧化碳排放,这一过程大约相当于一个人从纽约到旧金山的550次通勤所消耗的二氧化碳。
戈麦斯-罗德里格斯表示:“事情并没有想象中的那样坏,但是你要记住,你要做的不仅仅是对软件进行培训,而且要把软件应用到数以百万计的使用者中去。”
ChatGPT当作一个单独的软件来用,和把它放进 Bing里, Bing现在能处理大约5亿个查询,这两者之间也有很大的不同。根据瑞银集团的估算,目前全球通用 GPT的每日使用人数大约为1300万人。
加拿大 QScale的另一位共同创办人马丁·布沙尔(Martin Bouchard)表示,按照他对微软(Microsoft)和谷歌(Google)在其搜索引擎项目上所做的研究来看,将产生性 AI纳入到这个程序中,所要求的运算量“最起码要比一次检索多出4-5个数量级。他注意到,为了降低电脑的要求, ChatGPT在2021年末已经不再了解这个星球了。
要想适应搜索引擎的要求,就得做出相应的调整。但他们必须不断地对这些模式进行再培训,增加更多的参量,这将是另一回事。
这就需要对设备进行大规模投资。布沙尔说:“现在的资料和我们现在的架构都不可能跟自动产生型人工智能竞争,那实在是有点强人所难。
据美国国家能源机构统计,这些信息服务中心所产生的碳排放约为世界总量的1%。随着对云技术的日益增长,这些数字将会上升,不过,一些从事搜索引擎的公司已经保证要减少他们对温室效应的影响。
“它当然不会像交通和纺织行业那样坏,”戈麦斯-罗德里格斯说。不过,在二氧化碳的释放上, AI的作用还是很大的。”
微软已经许下了在2050年前将二氧化碳的排放量降至零的誓言。这家公司打算于本年度收购150万公吨的二氧化碳信贷。谷歌已经保证在2030年前实现整个行业以及整个生产链条的净零排放量。无论是 OpenAI还是微软都没有对这一消息发表评论。
把 AI融入到检索过程会导致环保问题和能耗增加,但是,如果把数据中心向更节能的地方移动,并对神经网路进行改造,则会使其变得更加高效,从而缩短“推理时间”(即运算法则对新资料的运算需要多少运算力),就会大大降低将 AI纳入检索过程的环保影响和能耗。
“我们得寻找降低此类大规模模式所需要的推论速度的方法,”纳菲斯·萨特·穆萨维,纳菲斯·萨大,一位名叫 Nafise Sadat Moosavi的教授说。“这个时候,就应该关注一下工作的有效性了。”
谷歌女一号简·帕克对 WIRED说,谷歌首次推出的 Bard系统采用了一个更大更轻型的语言模式。
帕克说:“我们也发布了关于最新技术的计算机程序的能耗细节,其中也有更早期的、更大型的 LaMDA程序。“我们的结论显示,通过将高效的模型、处理器以及数据中心与能量联合使用,可以使一个机器的二氧化碳排放量减少1000个百分点。”
现在的问题是,为了让谷歌能够稍微改进一下自己的搜索精度,这样做到底划算不划算,而且还会带来很多额外的计算和无谓的烦恼。不过,穆萨维表示,虽然对 LLM所造成的能源消耗和二氧化碳排放量的关注很有必要,但也存在着不同的看法。
她表示:“这对于终端用户非常有利,之前的那些大规模的编程语言模式并非人人都可以用。”