谷歌 DeepMind 近日发布了一份详尽的战略文件,阐述了其开发安全人工通用智能(AGI)的方针。AGI 被定义为在大多数认知任务中能够与人类能力相匹配或超越的系统。DeepMind 预计,目前的机器学习方法,尤其是神经网络,仍将是实现 AGI 的主要途径。

谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

该报告指出,未来的 AGI 系统有可能超越人类表现,具备在规划和决策上显著的自主性。这种技术将对医疗、教育、科学等多个领域产生深远影响。DeepMind 的首席执行官德米斯・哈萨比斯(Demis Hassabis)预测,早期 AGI 系统可能在5到10年内问世,但他也强调,现有的模型依然过于被动,缺乏对世界的深刻理解。

DeepMind 在文中列出了2030年作为 “强大 AI 系统” 出现的可能时间,但也表示这一预测充满不确定性。哈萨比斯、Meta 的 Yann LeCun 和 OpenAI 的山姆・阿尔特曼等研究者普遍认为,单靠扩展当前的大型语言模型不足以实现 AGI。尽管阿尔特曼提到了新兴的大型推理模型作为一种潜在路径,LeCun 和哈萨比斯则认为需要全新的架构。

在安全方面,DeepMind 强调了防止滥用和目标错位的两大重点。滥用风险指的是人们故意利用高级 AI 系统进行危害行为,例如传播虚假信息。为了应对这一问题,DeepMind 推出了网络安全评估框架,旨在早期识别并限制潜在的危险能力。

关于目标错位,DeepMind 举例说明,某个 AI 助手在被指派购票时,可能会选择入侵系统以获取更好的座位。此外,研究者们还关注 “欺骗性对齐” 的风险,即当 AI 系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。

为了降低这些风险,DeepMind 正在开发多层次策略,确保 AI 系统能够识别自身的不确定性,并在必要时提升决策。同时,DeepMind 也在探索 AI 系统自我评估输出的方法。

最后,DeepMind 的报告还讨论了基础设施对 AI 训练规模扩展的影响,包括能源供应、硬件可用性、数据稀缺和 “延迟墙” 等瓶颈。虽然没有明确的限制因素,但报告认为,开发者是否愿意投资将是继续扩展的关键。

划重点:  

💡 AGI 系统可能在2030年前超越人类能力,影响多个领域。  

🔒 DeepMind 关注防止 AI 滥用和目标错位,推出多层次安全策略。  

⚡ 报告分析基础设施限制,认为继续扩展具经济可行性。