信息瓶颈 再解读 携手 聚焦 信息压缩 MIT 理论 IBM (信息瓶颈算法)

深度学习的发展带给人工智能领域的影响可谓是革命性的,然而该领域目前还存在很多未解决的问题,其中就包括不可解释性等问题。而希伯来大学计算机科学家和神经学家Naftali Tishby 等人提出的「信息瓶颈」理论,则尝试来解决神经网络的一系列问题,自提出以来便一直受到 AI 界的广泛关注。IBM 研究院也开展相关研究来分析这一理论,以期能够解决神经网络中的某些问题,相关成果发表在 IBM 研究院官网博客上,雷锋网 AI 科技评论编译如下。

虽然对于神经网络理论的研究工作日趋增多,但我们对于深度学习的宏观行为理解仍存在许多不足之处。例如,训练期间由哪些因素驱动内部表征的演变、学习到的表征属性以及如何充分训练神经网络去处理信息等方面存在的问题,一直都没有得到解决。此外,我们对于神经网络的了解大多数都源于揣测,而缺乏实证。

「信息瓶颈」理论试图解决上述这些问题。作为 MIT- IBM Watson AI 实验室双方密切合作的成果,我们在 2019 年国际机器学习大会(ICML)会议论文「深度神经网络中信息流的评估」(Estimating Information Flow in Deep Neural Networks),从数学和经验的角度对「信息瓶颈」理论进行了分析,其中更是特别聚焦于其预测的「信息压缩」现象。

「信息瓶颈」理论(Schwartz-Ziv & Tishby 2017 年论文等,见参考文献)试图解释涉及信息压缩的神经网络泛化问题,这个概念是指在神经网络学习对输入编码时,输入 X 和隐藏层 T(图 1)之间的互信息在训练过程中迅速上升,之后在神经网络学习丢弃与任务无关的非关联信息(图 2)时,该互信息缓慢下降(压缩)。每一个连续的层都被视为在不断压缩输入。最终证明,这种淘汰掉无关信息的方式,可以使分类器的泛化效果更好,因为这样的话,当被给定一种新的此前从未见过的输入,神经网络仅仅提取出相关信息,而不会受到无关信息的误导。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

图 1:深度神经网络的前馈(假设的)

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

图 2:信息瓶颈。图中显示了训练过程中 5 个隐藏层中互信息的轨迹

虽然某种程度上这是一个较为诱人的观点,但遗憾的是,当网络是确定性的时候,输入 X 和隐藏层 T 之间的互信息并不依赖于网络参数(而在实践中,几乎所有的神经网络都是确定性的)。为了解决这个问题,先前的工作通过对每个神经元进行分箱处理(量化)和互信息进行计算(成为分箱隐藏层的离散熵),得出互信息的估计值。图 3 表明该计算与分箱大小高度相关,从而证实它并没有对互信息进行计算。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

图 3:分箱估计的不连续性

噪声神经网络与互信息评估

当网络是确定性的时候,互信息是非信息性的,而当网络是随机性的时候,互信息是富信息性的。因此,我们通过在每个神经元输出中添加高斯噪声 Z 来定义形成的噪声神经网络(图 4)。这种噪声同时存在于神经网络的训练和测试中,从而使相关的互信息评估变得有意义。在这种情况下,我们提出了一种有效的互信息评估方式,它能以极大极小最优速度收敛为真实的互信息(且不依赖于分箱)。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

将聚类作为压缩的驱动因素

我们的论文通过将单神经元分类和噪声通道上的信息传输联系起来,能够开发出一个数学直觉,即信息压缩(在随机网络中严格观察或在确定性网络中使用分箱估计)通常都应该由内部表征聚类引起。具体来说就是,在隐藏表征 T 中,映射同一类 Y 的不同输入 X 的隐藏层与彼此越来越接近。

要从经验上评估这一点,可参考 Schwartz-Ziv、 Tishby 在其 2017 年一篇论文中提出的数据和模型,该模型使用具有双曲正切函数(tanh)激活的全连接 12-10-7-5-5-4-3-2 体系结构对 12 维输入进行二进制分类。图 5 显示了标准偏差 0.005(测试精度 97%)的加性噪声结果,说明了各训练期中互信息估计、训练/测试损失和不断演变的内部表征之间的关系。互信息的上升和下降对应着表征在每一层中的扩展或聚合程度。例如,当高斯函数开始沿着一条曲线彼此偏离时(参见顶部第 5 层隐藏表征的散点图),在 28 epoch 之前,互信息一直呈增长趋势;到 80 epoch 左右,它们开始聚合,互信息随之下降。随着训练的进行,饱和的双曲正切单元将高斯函数推到立方体的相反角落,进一步减少了互信息。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

图 5:训练过程中的 I(X;Y) 压缩。最上面一行显示的是在选定 epochs 中隐藏表征的最终层的散点图,按颜色进行类标签编码

如图 6 所示,我们使用权重的正交规范化规则(Cisse 等人 2017 年论文),不仅可以消除这种压缩,实际上也改进了泛化。隐藏表征不再聚合在一起,这与信息压缩的缺失是直接对应的。我们在这方面进行了更多的实验,从而有力地证实了信息压缩是由聚类引起的。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

图 6:使用正交规范化消除压缩

由聚类引起的「压缩」概念之所以重要,基于两个原因。首先,它揭开了「信息压缩」的神秘面纱,用一个更具体的公式取而代之。其次,它为直接研究聚类打开了大门,聚类可能不会遭遇源自与互信息估计相关的维数的极端「诅咒」(我们证明了样本复杂度在维数上呈指数级增长)。事实上,我们能够将聚类的若干(初步的)测量方法延展到针对 MNIST 扫描数字任务进行分类的全卷积神经网络上,从而在训练过程中观察到类似的「压缩」行为。

此外,与「信息瓶颈」理论相反,我们发现压缩对于泛化来说并不是必要的,不过,鼓励使用压缩(通过几何聚类)是否能够促进更好的泛化性能仍然是一个有待解决的问题。

参考文献:

[Shwartz-Ziv, R. and Tishby, N. Opening the black box of deep neural networks via information. arXiv:1703.00810, 2017]

[Cisse, M., Bojanowski, P., Grave, E., Dauphin, Y., and Usunier, N. ParsEVAl networks: Improving robustness to adversarial examples. In Proceedings of the International Conference on machine Learning (ICML), 2017]

via:

原创文章,未经授权禁止转载。详情见 转载须知 。

聚焦「信息压缩」,IBM 携手 MIT 再解读「信息瓶颈」理论

全局中部横幅
网址大全

网址大全(m.duba.com)——安全实用的上网导航。及时收录各种分类的优秀网站,提供简单便捷的上网导航服务。安全上网,从网址大全开始。

杭州装修公司

浙江国富装饰24小时服务热线:13777594082(微信同号),公司专业承接办公室厂房、教育培训、餐饮酒店、美容医美、口腔医院、展厅展馆、健身运动等各式工装装修设计项目,年行业经验,设计乙级施工贰级资质,欢迎您的咨询!

电脑知识入门基础知识,文员必会的电脑知识

对电脑一窍不通零基础从哪开始学,小白买电脑怎么不被坑,文员必会的电脑常用知识,提高你的工作效率,基础的电脑故障维修方式,如果你对计算机知识感兴趣,欢迎来到电脑知识网!

上海秘莱科技有限公司

上海秘莱科技有限公司成立于2024年03月21日,注册地位于上海市崇明区绿华镇富华路79号(上海绿华经济开发区),法定代表人为李林。经营范围包括一般项目:技术服务、技术开发、技术咨询、技术交流、技术转让、技术推广;网络与信息安全软件开发;网络技术服务;互联网销售(除销售需要许可的商品);软件开发。(除依法须经批准的项目外,凭营业执照依法自主开展经营活动)

JRS直播吧

JRS直播吧所有喜欢足球吧的小伙伴们提供了欧洲杯直播,足球直播,英超直播,以及低调看直播和NBA直播吧的精彩新闻资讯,是一个专业的JRS直播吧网站哦!

车铣复合机床广东钲捷智能科技有限公司

广东钲捷智能科技有限公司:车铣复合机床

巧房

巧房专业房产管理系统,为小店、直营连锁、集团加盟等不同规模的房地产中介提供房源管理、营销获客、交易财务管理等房产业务全场景的系统服务,找好房上巧房。

雷神众测

雷神众测,安全众测,红队服务,网络安全,BugBounty,RedTeam|BountyTeam,加入雷神众测网聚优秀的安全力量连接数万白帽,快速发现企业安全问题

傲神传官方网站

傲神传作为一款3D免费网络游戏,利用先进的立体图像技术完美地把中国神话传奇世界的展现出来,优质的网络技术支持,让傲神传游戏顺畅轻松,pk精彩;aszol.com是傲神传唯一官方网站,当前傲神传为完全免费游戏模式。

双相不锈钢法兰管件

浙江至德钢业有限公司专业生产不锈钢管件厂家,产品有不锈钢弯头,等径三通,异径四通,偏心大小头,同心异径管,不锈钢封头,管帽,翻边,法兰等,也可以根据客户要求制造非标管件。

全局底部横幅