智源大会“尖峰对话:通往AGI之路”圆桌论坛探讨大模型的价格战、人工智能安全与伦理等问题,以及通往AGI的挑战。

6月14日至6月15日,为期两天的2024年智源大会在北京举行。会上,除智源研究院公布的近20项研究进展令人目不暇接外,被称为国内大模型“四小龙”的首席执行官(CEO)们罕见聚首,也吸引了众多人工智能从业者、爱好者的目光。

这场名为“尖峰对话:通往AGI(通用人工智能)之路”的圆桌论坛由智源人工智能研究院院长王仲远主持,在近一小时的对话中,他与百川智能创始人、CEO王小川,月之暗面创始人、CEO杨植麟,智谱AI CEO张鹏,面壁智能联合创始人、CEO李大海一起探讨了在通向AGI的路上大模型扮演的角色、AI安全与伦理,以及大模型“价格战”等问题。

过去一年多时间,面对大模型的飞速发展,中国公司经历了恐慌期、投入期和迭代期,已经实现了从“追赶到并跑”的研发之路,并逐渐开启商业化。但随着行业格局开始明晰,价格战、AI安全和伦理,以及能否“大力出奇迹”等话题都成为行业争论话题,这也让本次圆桌格外受到关注。

大模型“四小龙”谈“价格战”:扩产降本还是营销噱头?

“价格战”无疑是今年5月以来大模型领域的最大热词。率先“开卷”的是人工智能公司深度求索(DeepSeek),其发布的第二代MoE大模型DeepSeek-V2号称“性能与GTP-4(OpenAI公司旗下的一款生成式模型)一致,但价格只有GPT-4的百分之一”。随后,智谱AI、字节跳动、阿里、百度、科大讯飞、腾讯等众多企业纷纷跟进,价格先被打入“厘时代”,随后更有企业“掀桌”般地宣布“全面免费”。

那么,现场的四位大模型创业企业首席执行官们又将如何看待大模型“价格战”?

智谱AI曾是大模型降价潮的最早跟进者之一。谈及这一问题,智谱AI CEO张鹏认为,“价格战”是通过技术创新降低成本并推动大模型普及的手段,这一策略可以促进AI大模型成为像水电一样的基础设施,从宏观角度看,也有利于中国AI大模型产业的发展。

“很长时间以来,智谱的价格一直都是行业内较低的,技术能够把成本的空间释放出来,使得企业ROI(投资回报率)大于1。”张鹏说。但张鹏也提示,过分关注成本削减和低价策略,可能对商业可持续性构成挑战。

在此前接受包括新京报在内的采访时,王小川曾明确表示,百川并不会“掺和”到价格战当中。在这次圆桌论坛中,他却分析了“’价格战’对中国发展大模型的益处。”在他看来,“价格战”一方面可以降低普通企业使用大模型的成本,扩大市场;另一方面,可以让一些原本自主训练大模型比较“吃力”的企业,直接转化为大模型的使用者,减少投入和浪费。

“我观察到,之前大家在恐慌的时候,因为不知道大模型为何物,很多企业但凡有点技术能力,都说我自己要训大模型,买卡。明明是消费者、使用方,但都想转型成为一个大模型的供给方,这会带来很多人才、资金和社会资源的浪费。”王小川称。在价格战之后,很多企业就开始清醒了,他就会退回成为大模型的用户,消耗也会减少很多。

面壁智能CEO李大海则判断,“价格战”多多少少还是有一些营销的成分在,但他相信,未来API(应用程序接口) 价格一定会比现在这个还要便宜,并且大家都有利润,这才是健康的方式,并且这才真的让各个行业落地。

月之暗面创始人、CEO杨植麟认为,最终的价格战会回归价值本身。他的判断是,未来用于推理的算力将显著超过用于训练的算力。此后,C端(用户端)的推理成本将显著低于获客成本。在这两个前提之下,AI(人工智能)能做的事情可能会超过人做的事情。“到那时就可能会产生新的商业模式,不像是今天在 B端(商业端)用 API 去打价格战,而是普惠的AI,根据产生的价值来分润。”杨植麟称说。

AGI之路:安全与价格战,大模型生意如何通往未来

“尖峰对话:通往AGI(通用人工智能)之路”的圆桌论坛。图|受访者供图

什么是通用人工智能:边际成本为零还是无法量化?

从专家系统到机器视觉、卷积神经网络,再到现在的生成式大模型,人工智能的每一次突破,都让人类通往AGI的幻想有了更具象的可能,那么,到底什么才是AGI?

王小川通过比喻来理解AGI,即大模型能不能“造医生”。之所以选择这一指标,是因为AGI的第一个变化是大模型开始具有思考、学习、沟通、共情甚至多模态处理能力,就像是医生,既需要多模态,也需要减少幻觉,同时需要有强大的记忆能力、查文献能力、推理能力,如果把行业上能共识的能力都投射到做医生的标准中,那么这便可以成为一个指标——“人造医生”就是AGI。

李大海则尝试从经济学的角度定义AGI。在他看来,一个理想中的AGI,就是去执行任何任务的时候,边际成本都已经降为零。去年行业里大家推动大模型落地时,很多场景还需要做微调,这个过程的边际成本就很高。“我们相信,随着模型能力的提升,大模型门槛越来越低,成本也越来越接近于0的时候,AGI基本也就到来了。”李大海说。

杨植麟提出AGI的定义重要,但不需完全量化,在他看来社会对AGI的准备比具体定义更为关键。不过杨植麟还表示,在短期内,确实需要这样一种量化的定义,“因为如果完全没有量化,也自然无法衡量AGI开发的进度,从而影响整体发展”。

张鹏则认为,对人工智能的发展而言,没人能够说清楚什么是AGI,反而可能是一件好事,这意味着还有更多未知空间等待探索。“如果能把一件事情说得非常量化、非常清晰,那么天花板估计也就触手可及了”张鹏说。

Scaling Law(规模效应)也在通往AGI的道路上被反复提及,这个类似于大模型版的“大力出奇迹”的法则,成功塑造出了OpenAI,但也面临着浪费资源等质疑。

杨植麟属于Scaling Law的坚定拥护者。在他看来,模型的“大”依然是第一性原理,现在最大的问题是解决怎么取得原本稀缺或者不存在的数据,以及如何高效地形成规模效应。

但王小川则有点处于“中间派”。他认为,光靠Scaling Law是不够的,因为Scaling Law只能无比逼近AGI,达到AGI还需要不同维度符号和连接的融合,即需寻找新的范式转化。

智谱AI CEO张鹏和面壁智能CEO李大海的观点,则更为保守。张鹏认为,Scaling Law肯定是AGI的基石,但是不是基石之一还是个问号。李大海则强调,大模型一定是当前通往 AGI 这个方向上能走得最远的重要技术,但依然需要将Agent (智能体)转化为自身能力,从而更大的探索大模型的训练。

人类离AI安全风险有多远?

随着人工智能的发展,一些安全风险也逐步显现,甚至一些社会问题也逐渐显现,比如训练数据的滥用、个人隐私保护、失业等,这些话题也同样在圆桌论坛中被提及。

杨植麟认为,AI安全非常重要,但不是当前最急迫的事情,AI安全需要长期布局。AI安全的挑战主要集中在两个层面:一是防范用户恶意操纵模型,例如通过prompt injection(提示注入)诱导模型执行不当行为,这要求模型设计需具备抵御此类攻击的能力;二是确保模型自身行为的可控性,即模型应遵循一套类似于“AI法律”的规则体系,无论面对何种指令或内在思考,都能坚守既定的行为边界,不偏离正轨。

在王小川看来,AI安全需要从意识形态安全、人类文明安全及现实功能安全三方面考量。首先,意识形态安全是底线。其次,AI反噬人类甚至导致人类灭绝的科幻情节是不会发生的。最后,他更倾向于将AI视为服务人类文明繁荣与延续的工具,AI与人类共生,共同推动文明进步,而非设定限制。

李大海则认为,现阶段,AI安全的重点集中在基础安全与内容安全两大领域,需要确保技术运行的稳定性与输出内容的合规性,随着大模型技术的演进,未来的安全挑战将更为复杂。张鹏则表示智谱注重AI安全,已经签署了负责任的AI承诺书。

四大模型企业CEO分享了对价格战的看法,对AGI的定义和通往之路进行了独到分析。同时,AI安全问题也受到关注,对于AI安全的长远规划和挑战进行了畅谈。