微软公司周二在芝加哥举办的年度Ignite大会上发布AI工具Azure AI Foundry,可以协助云客户构建和部署人工智能应用。同时,该公司还发布了两款芯片

媒体报道,Azure AI Foundry可以让用户更轻松地在支持人工智能的大型语言模型之间切换。例如,使用旧版OpenAI产品的客户可以尝试新版产品,或从OpenAI切换到Mistral或Meta的AI工具微软云计算负责人Scott Guthrie在接受媒体采访时表示。除了混合搭配模型,客户还可以确保应用程序正常运行并获得良好的投资回报。

微软表示,将免费提供这款软件,以吸引企业客户更多地购买其云服务。

目前,有6万客户在使用Azure AI,这项云服务允许开发人员使用1700种不同的AI模型来构建和运行应用程序。不过,这一过程仍然繁琐,很难跟上新模型和更新的速度。媒体报道,客户不希望每次出现新技术时都重新构建应用程序,也不希望在不了解模型适用任务的情况下盲目切换。

Guthrie说:

“开发人员常常发现,每个新模型,即使是同一家族的模型,在某些方面有更好的答案或性能,但在其他方面可能会出现倒退,如果你的企业运行着关键任务的应用程序,你不会希望一切换就指望它能正常工作。”

Foundry的一部分功能来自此前的Azure AI Studio,而其他功能则是新增的,包括帮助公司部署AI代理(半自主的数字助手)的工具,这些代理可以代替用户采取行动。

Guthrie表示,让客户更轻松地在模型之间切换,不会削弱微软与OpenAI的紧密合作关系。他指出,这反而能让客户更容易选择最适合每项任务的OpenAI模型。不过,微软也深知,提供选择是吸引和留住客户的关键。

“在许多使用场景中,OpenAI模型目前绝对是行业内最好的。与此同时,不同的用例和需求下,人们可能希望使用不同的工具。选择权将变得非常重要。”

分析认为,微软此举是希望增加在生成式AI方面的收入。尽管微软试图说服客户更多投资于AI,但公司一直警告投资者,云业务的销售增长将因数据中心容量不足以满足需求而下降。Guthrie表示,这些限制是暂时的,微软承诺未来将拥有足够的计算能力。

去年微软在Ignite大会上宣布了首款自主研发的云计算和AI芯片,今年又发布了两款新芯片,其中一种是保护加密和签名密钥等内容的安全微处理器。公司表示,从明年起,这款新芯片将安装在所有新建微软数据中心的服务器中。

另一种芯片是数据处理单元(DPU),这是一种类似于英伟达生产的网络芯片,能更快速地将数据传输到计算和AI芯片,从而加快任务处理。微软和其竞争对手正在追求越来越强大的云系统,用以训练和运行AI模型。

微软负责芯片设计与开发的副总裁Rani Borkar表示,每一层芯片、服务器、软件和其他组件都必须不断改进,并实现最佳性能:

“模型的规模正在变得非常庞大,你需要让1加1加1加1大于4或5。数据处理单元就是其中的一部分,可以加快网络和存储性能,同时减少能耗。

此外,微软还宣布Maia AI芯片将用于运行Azure OpenAI服务,与英伟达芯片共同运行。有关365 Copilot,微软新增了一项可以自动化处理重复任务的功能,同时Teams Copilot将能够理解和回答有关幻灯片、网络图片和其他视觉内容的问题。从明年开始,PowerPoint的Copilot将能够将演示文稿翻译成40种语言。