人工智能绘画和ChatGPT的普及再次引发了业界对人工智能的热烈讨论。

ChatGPT仅推出两个月,月活用户就超过1亿,成为历史上用户增长最快的消费应用。文生图(text-to-image)也在短短两个月内,从外国网友和中国极客手中的小众黑科技迅速移植到普通用户触手可及的小程序和手机APP中。

人工智能以一种新的应用形式再次刺激了人类对科学技术的想象,但这些令人兴奋的应用体验仍然没有想象中那么光滑。例如,人工智能绘画将绘制与主题完全无关的图片,ChatGPT经常严肃地胡说八道。

技术更新诞生了新的应用程序,新应用程序的问题往往迫使技术升级和更新,AIGC必然会在人工智能芯片领域掀起新的浪潮。

现象级人工智能导致范式变化,芯片计算能力需求井喷

如何理解AIGC?也就是说,人工智能生成的一种内部技术可以理解为从PGC(专业生成)到UGC(用户生成)后内容生成的范式转移。

事实上,早在2014年,对抗生成网络GAN(Gemerative)现有样本已经可以用来生成新图像,比如给GAN模型喂大量的人脸数据,就可以生成真假难辨的人脸照片。更常见的应用是我们在短视频平台上看到的“假笑特效”、“老人特效”、视频特效,如“让老照片动起来”,但这一波不足以让AIGC概念爆炸。

直到大模型、可控性、多模态等技术赋能AIGC,AIGC才变得越来越成熟,最终具有更好的应用性能。

需要强调的是,对于人工智能来说,如何理解用户输入语言的含义是操作的关键,人工智能对人类语言的理解主要是基于喂养的数据——喂养的数据越多,理解能力越强,模型越大,理解能力越强。ChatGPT也证明了这一点。它的友好对话能力也是基于相对较新的GPT-3.5通用语言模型,通过训练来自四面八方的大量文本,产生类似人类的反应。

不幸的是,AIGC对大型模型的需求与GAN有很多相反之处。例如,GAN需要一个特定的数据集,而不是大量的数据集来学习,无法实现泛化使用。该行业正在尝试基于GAN制作文学生图片的技术,经常出现描述文本缺失、分辨率低、难以理解高水平语义信息等问题。

然而,Difusion后来出现了这些问题 解决了CLIP的技术组合。前者通过多步生成图片,每一步都是自编码器,以确保训练的稳定性。后者负责图形匹配验证,以确保生成的图片能够满足文本描述。

探讨支持AIGC发展的主要技术,可以发现AI绘画和ChatGPT的爆炸主要得益于深度学习模型的创新。算法、预训练模型和多模态技术的不断创新整合促进了AIGC的变化,具有巨大的商业价值潜力。

2023年2月1日, Open AI率先尝试商业化,推出了名为ChatGPT Plus的订阅服务每月收费20美元。订阅用户可以获得全天候服务,并在高峰时段享有优先访问权。用户不仅可以提前使用新功能,还可以更快地响应应用。Open AI ChatGPT预计将在2023年实现2亿美元的收入。这也引发了一大批互联网公司对ChatGPT的布局。谷歌推出Bard后,华为、百度、腾讯、阿里巴巴等龙头企业也表示,他们已经拥有与ChatGPT相关的模型和产品,致力于打造中国版的ChatGPT。

2018年,谷歌发布了基于Transformer机器学习方法的自然语言处理和训练模型BERT。人工智能已进入大模型参数预训练模型时代。目前,预训练模型的参数和训练数据模型正在按照每年300倍的趋势增长,人工智能硬件计算能力的增长率与模型计算能力的增长率之间存在1000倍的差距。ChatGPT的出现和商业实现,意味着模型计算量的增长速度将进一步加快,芯片计算能力需求井喷,不仅是人工智能培训芯片单点计算能力需求,还包括计算能力定制、多元化需求,甚至数据传输速度也提出了更高的要求。

IDC预计到2025年,人工智能芯片市场将达到726亿美元。目前,每个人工智能服务提供商通常配备两个GPU,未来18个月,GPU、ASIC和FPGA的装载率都会上升。人工智能芯片的主要发展方向是通用性和专用性的下降。国际大型工厂将越来越重视从云培训到终端响应的全套人工智能芯片生态系统的建设。

人工智能芯片分工生变,云推理加速转移

据外媒semianalysis报道,ChatGPT每天计算硬件的运营成本为69444美元,Open AI大约需要3617HGX A100服务器(28936GPU)为ChatGPT提供服务。随着云芯片推理需求的增加,云无法承受如此巨大的数据和工作量。如果人工智能云芯片的处理能够转移到边缘,它可能会为大型模型的培训和推理释放更多的计算空间。

与此同时,用户需求也在改变典型的人工智能芯片分工,一方面,消费者希望保护个人数据隐私,终端数据保留在终端设备上,另一方面,消费者需要可靠的数据,并立即获得处理结果,数据不断从边缘产生,人工智能处理的重点不断转移到边缘。

“一夜爆红”的AIGC,我们需要什么样的AI芯片?

高通公司正在以不同的方式实现终端侧的学习能力,研究了小样本学习、无监督可持续学习、联邦学习和低复杂度的终端侧培训,并取得了一些成果。

通过小样本学习,在关键字识别方面,人工智能可以在“阅读”一个人的笔迹或书面文本后快速识别。它还可以适应用户输入数据时的局部模型,并通过少量样本数据和数据标记能力提高关键字识别能力。

在联邦学习方面,在将云创建的模型发送到边缘终端后,基于一定程度的离线学习,终端可以根据消费者的实际情况调整模型。由于终端侧学习过程会产生噪音,因此可以将其返回到云中,以进一步提高模型的泛化能力。在实际应用场景中,如果一辆车继续在多个国家的不同路况下行驶,云模型可以继续适应。随着时间模型的优化,可以创造出更好的自动驾驶汽车模型。

高通还有针对性的技术创新,使人工智能在终端中发挥最大作用。

例如,高通支持INT4的精度推理。与INT8相比,INT4可以达到60% 如果能效提高和人工智能推理速度提高90%,如果从INT8转变为INT4、或者从浮点计算到整数计算,更多的数据可以在相同的计算能力下处理。如果将32位浮点模型转换为INT4模型,能效甚至可以提高到64倍。

智能终端的性能升级是不可避免的,高通赋予了20亿终端

提高边缘侧处理能力已成为全民的需要。高通在这方面取得了许多突破,并将许多人工智能算法应用于图像和图形处理功能,为行业提供了发展理念。

首先,高通专注于产品开发的统一技术路线图,涵盖边缘人工智能、前沿视觉效果和视觉技术、图形和游戏技术、新颖的多媒体效果、快速处理速度和5G连接能力。高通从耳机等低复杂度的产品到汽车等高复杂度的产品,大规模扩展了这些技术。这些人工智能技术包括不同的能力,如自然语言处理和面部识别。

其次,高通的AI引擎赋能了20亿终端。高通的AI引擎包括图形处理单元,CPU、以及更关键的Hexagon处理器,包括标量、向量和张量处理器,可以很好地匹配神经网络模型的不同部分。基准测试显示,高通人工智能引擎在自然语言处理、目标测试等模型方面实现了一定的性能优化。

此外,高通还在芯片子系统中集成了一个小型的“始终在线”引擎,称为高通传感器中心,可以同时处理多个数据流,包括传感器、语音和音频、连接和始终感知的摄像头。通过人工智能性能的提高,该传感器中心具有识别隐患声音的能力,如在半夜对玻璃破碎声音进行监控和预警。

高通还开发了高度可扩展的硬件架构,以扩展应用程序需求。例如,高通的骁龙移动平台通常配备Hexagon处理器实例;但是,如果扩展到计算和其他业务,也可以使用两个Hexagon处理器实例;对于汽车、云和边缘,可以使用多个Hexagon处理器实例来提高计算能力。

AIGC“一夜之间流行”,高通仍然发挥其在智能终端领域的优势和优势,通过技术创新不断提高终端人工智能芯片处理能力,也许,当绝大多数人工智能芯片公司选择继续增加云,关注侧推理计算能力可以创造一个颠覆性的未来。