4月3日,百度正式推出了飞桨框架3.0版。这一全新版本在设计理念上实现了全面进化,特别针对大模型的开发和推理需求,提供了五大核心特性,力求成为深度学习框架领域的领先者。随着大模型在各行各业的广泛应用,深度学习框架的作用愈发重要,而飞桨框架3.0正是为此而生。

首先,飞桨框架引入了 “动静统一自动并行” 技术,显著降低了大模型的开发和训练成本,让算法创新更专注于核心价值的创造。此外,它的 “训推一体” 设计理念有效打破了训练与推理之间的壁垒,通过深度优化,框架能够支持多款开源大模型的高性能推理,甚至在 DeepSeek V3/R1平台上实现了显著的性能提升。

百度发布飞桨框架3.0,助力大模型时代的智能开发

在科学智能领域,飞桨框架3.0还专注于科学前沿的探索,例如提升微分方程的求解速度。得益于高阶自动微分和神经网络编译器技术,框架的求解速度比 PyTorch 经过编译优化的版本平均快了115%。此外,飞桨对 DeepXDE 和 Modulus 等主流开源科学计算工具进行了广泛适配,成为 DeepXDE 的默认推荐后端,进一步拓展了其在气象预测、生命科学和航空航天等领域的应用价值。

在运算性能方面,飞桨3.0通过自研的神经网络编译器 CINN,显著提升了运算速度。在 A100平台上进行的性能测试显示,经过编译优化的算子运行速度提高了4倍,且在使用超过60个模型的实验中,有超过60% 的模型表现出显著性能提升,平均提升达到27.4%。

此外,飞桨框架3.0还推出了多芯片统一适配方案,构建了 “一次开发,全栈部署” 的生态体系,目前已支持超过60个芯片系列。开发者只需编写一份代码,便能在不同芯片上顺利运行,实现业务的跨芯片迁移。截至2024年10月,飞桨文心生态已聚集1808万开发者,服务了43万家企业,创建了101万个模型,彰显出其强大的市场影响力。

飞桨框架3.0现已向开发者开放,并与2.0版本的开发接口兼容,为开发者提供了更多的选择和便利。