谷歌 AI 今日更新技术博客,以下是文章概要:深度学习在自然语言处理,会话智能体和连接组学等各个领域已取得广泛成功,且改变了机器学习的研究格局,并给研究人员带来了许多有趣而重要的开放性问题,例如:为什么要进行深度学习神经网络(DNN),尽管参数过多却泛化得这么好?深度网络的体系结构,训练和性能之间的关系是什么?如何从深度学习模型中提取显着特征?近年来,使我们取得进展的关键理论见解之一是,增加 DNN 的宽度会导致更常规的行为,并使它们更易于理解。最近的许多结果表明,允许无限宽的 DNN 收敛到另一个更简单的,称为高斯过程的模型。在此限制下,复杂的现象(如卷积神经网络的贝叶斯推断)归结为简单的线性代数方程。这些无限广泛的网络提供的见解经常会延续到有限的对应对象。因此,无限宽网络可以用作研究深度学习的切入点,也可以用作有用的模型。