使用拓扑数据分析理解卷积神经网络模型的工作过程

作者: Gunnar Carlsson 2018-07-05 14:18:12

1.简介

神经网络在各种数据方面处理上已经取得了很大的成功,包括图像、文本、时间序列等。然而,学术界或工业界都面临的一个问题是,不能以任何细节来理解其工作的过程,只能通过实验来检测其效果,而无法做出合理的解释。相关问题是对特定数据集经常存在某种过拟合现象,这会导致对抗行为的可能性。出于这些原因,开发用于发展对神经网络的内部状态的一些理解的方法是非常值得尝试的。由于网络中神经元的数量非常庞大,这成为使得对其进行数据分析显得比较困难,尤其是对于无监督数据分析。

在这篇文章中,将讨论如何使用拓扑数据分析来深入了解卷积神经网络(CNN)的工作过程。本文所举示例完全来自对图像数据集进行训练的网络,但我们确信拓扑建模可以很容易地解释许多其他领域卷积网络的工作过程。

首先,对于神经网络而言,一般是由节点和有向边组成。一些节点被指定为输入节点,其他节点被指定为输出节点,其余节点被指定为内部节点。输入节点是数据集的特征。例如,在处理图像时,输入节点将是特定图像格式的像素。在文本分析时,它又可能是单词。假设给定一个数据集和一个分类问题,比如手写数字MNIST数据集,试图将每个图像分类为数字0到9中的某一个数字。网络的每个节点对应于一个变量值(激活值)。因此,每个数据点为神经网络中的每个内部和输出节点生成值。网络每个节点的值由分配给每个边的权重系统决定。节点节点Z上的值由与之连接的节点A,B,C,D节点的激活函数来确定。


图1 神经网络节点示例

基于分配给四条边的的权重值,计算最右边节点Z的激活值。一种可能的函数形式就是

其中wA,wB,wC和wD是与边缘AZ,BZ,CZ和DZ的权重值,xA,xB,xC和xD分别是节点A,B,C和D处的激活值,取值范围通常在0和1之间,并且通常是单调的。权重的选择是通过输出函数来进行优化的,给定输入的特定输出函数(代价函数或损失函数),然后使用优化过程来选择所有权重,以便***地适合给定的输出函数,对这方面感兴趣的读者可以查阅梯度下降算法和反向传播算法相关资料。

2.理解训练网络的权重

有一类神经网络在图像处理领域取得了很好的成绩,即卷积神经网络。在这种情况下,输入节点被布置在对应于像素矩阵的方形网格中,用于构成图像的数据。网络模型由一系列图层组成,且每层之间都有连接,即第i层的节点与位于第(i + 1)层的节点之间有连接。不同于一般的神经网络,典型的卷积神经网络由卷积层(convolutional layers )、采样层(Pooling layer)以及全连接层(fully-connected)组成,其中卷积层主要是用于提取图像特征,采样层用于降低特征的维度,全连接层用于***的分类目的,随着层与层之间的处理,特征图会变得越来越小,从图中也可以看见这种现象:


图2 卷积神经网络的典型结构

为了理解卷积神经网络的潜在行为,需要对权重矩阵进行了解。假设一个数据集,其中每个数据点是与隐藏层中的神经元相关联的权重矩阵。从固定层的所有网格中收集数据,并在同一网络模型对同一数据集进行许多次的训练。***,对权重矩阵进行拓扑数据分析。

通过对权重矩阵执行TDA,我们***了解了卷积神经网络的行为,独立证明卷积神经网络完全地表示自然图像中发生的潜在分布,这是如何完成的呢?

首先,需要从拓扑角度找到有用的结构。为了实现这个目标,只考虑密度足够高的点。首先看一下两层卷积神经网络中的***个卷积层,它产生图3所示的拓扑模型。


图3 根据过滤器的密度着色的TDA Mapper模型

从图中可以看到,该模型是循环的。右侧显示的条形码为持久性同源条形码,它们是拓扑形状的签名,表明数据集实际具有这种形状,并且它不是使用Mapper构建模型的构建。通过用相应权重矩阵的平均值标记部分模型,图像中也显示了对形状的解释。此外,这个模型的有趣之处在于灰度自然图像中统计3×3图像块的研究中发现的内容与在所谓的初级视觉皮层中发现的内容完全一致。

更简单地说,拓扑模型以这样一种方式描述CNN,即可以独立地确认它与人类看待世界的方式相匹配,并与自然图像的密度分析相匹配。

图3中的分析是在MNIST数据集上进行的,对CIFAR 10数据集上执行的相关分析获得下图:


图4 CIFAR 10数据集的额外复杂性显示在水平线和垂直线上

上图是对***个卷积层进行分析,该模型在区域中间以及边缘包含线条。观察到这些线条块的神经元也存在于哺乳动物的初级视觉皮层中,这为我们提供了与视觉相关的质量方面的量化视角。

3.理解权重在训练过程中的变化

从上面的发现可以看到,使用TDA,卷积神经网络可以模拟自然图像中数据集的分布,因此可以将注意力转向研究学习过程中发生的事情。图5是通过在CIFAR10数据集上计算卷积神经网络的***层和第二层中的拓扑模型,然后在不同次数的学习迭代中显示模型的***层和第二层而获得。


图5 神经网络模型各个阶段的拓扑模型

对模型进行着色来获取模型进行处理的信息,颜色反映了节点中数据点的数量,因此可以将红色部分视为实际模型,其余部分包含不常出现的权重矩阵。

图像中的***行反映***层的信息,并且观察到,优化算法进行400和500次迭代后快速发现上述圆形模型。然而,随着迭代的过程,圆形变为更复杂,其中包括与水平和垂直补丁相对应的补丁,1000次迭代后,模型中心变得更复杂。另一方面,对于第二层,在迭代的***轮中可以看到,只有一个弱模式,但是在2000次迭代之后,似乎具有一个明确定义的圆形模型。我们对其进行假设——第二层已经“接管”了***层,而***层已经转移到捕获更复杂的补丁,这是未来潜在研究的一个领域。这也证明了使用拓扑数据分析来监控和提供对神经网络学习过程的洞察力的能力。

4.更高层的权重矩阵

这种方法也适用于更深的网络,更深的网络的组织方式类似于人类或灵长类动物视觉通路的组织。应理解,该通路具有许多组分,包括视网膜,以及各种较高组分。初级视觉皮层充当边缘和线检测器,并且更高的组件用来检测更为复杂的形状,更为抽象。下图是对已经训练好VGG 16网络中各层的研究结果。这里显示第2到第13卷积层的拓扑数据分析,给出对应的拓扑模型。


图6 以拓扑数据分析为代表的13层神经网络

注意到,第二层和第三层显然非常类似于在MNIST数据集上训练的模型中获得的圆形模型。第四层有一个圆形模型,但也包含一些背景中的一些线条。然而,在更高层次上,开发出了非常有趣的模式,包括线条交叉和“牛眼”。

从这些拓扑模型可以发现,卷积神经网络不仅模仿真实世界数据集的分布,而且还能够模拟哺乳动物视觉皮层的发展。

虽然卷积神经网络像一个黑匣子一样让人难以理解,但拓扑数据分析提供了一种在宏观尺度上理解神经网络中计算是如何被执行的方法。虽然这项工作适用于图像数据集,但使用拓扑数据分析来解释其他领域神经网络的计算同样也适用。

通过将大量状态压缩成更小更易理解的模型,拓扑数据分析可用于理解宽范围神经网络的行为和功能。

作者:Gunnar Carlsson,机器学习研究者

数据分析 神经网络 模型
上一篇:物灵科技推出“Luka Hero”和“Luka Baby”两款智能绘本机器人,并获得A轮融资 下一篇:机器人还能这么玩?确认过眼神,这是我想要的机器人!
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

DeepMind新模型自动生成CAD草图,网友:建筑设计要起飞了

在最近的一项研究中,DeepMind 提出了一种机器学习模型,能够自动生成此类草图,且结合了通用语言建模技术以及现成的数据序列化协议,具有足够的灵活性来适应各领域的复杂性,并且对于无条件合成和图像到草图的转换都表现良好。

力元 ·  1天前
多尺度表征10亿像素图像,斯坦福神经场景表征新方法入选SIGGRAPH

斯坦福大学近日的一项研究给出了解决方案,他们提出了一种新的隐式 - 显式混合网络架构和相应训练策略,可以在训练和推理过程中根据信号的局部复杂度来自适应地分配资源。

佚名 ·  1天前
7个实用小技巧,提升PyTorch技能,还带示例演示

这里有 7 个技巧可以帮助你提高 PyTorch 技能。

陈萍 ·  2021-05-12 14:40:32
LeCun联手博士后arxiv发文,遭reddit网友质疑:第一张图就错了

两个月前自监督学习领域出了一篇重磅论文,LeCun和他的学生共同完成新模型Barlow Twins,reddit网友指出,第一张图就错了!

佚名 ·  2021-05-11 14:26:30
你的「在看」有人看,清华研究者从微信「看一看」发现了这些规律

该研究还提出了一个预测模型,预测准确率相比其他方法有所提升。目前,该论文已发表在《IEEE Transactions on Knowledge and Data Engineering》(TKDE) 期刊上。

佚名 ·  2021-05-07 09:03:27
AI模型新革命来了?大脑记忆是旋转的?过去未来竟是「正交」空间

人脑是怎么区分过去和现在的记忆的呢?最近科研人员发现人脑是通过「旋转」正交来防止记忆冲突,这会是最终答案吗?

佚名 ·  2021-05-06 09:43:45
新的人工神经元设备可以使用极少能量运行神经网络计算

加州大学圣地亚哥分校的研究人员开发了一种新的人工神经元装置,训练神经网络来执行任务。

佚名 ·  2021-04-29 08:50:39
探索性数据分析:决定人工智能与机器学习效果的第一步

如今,企业手中掌握的数据总量远超以往任何时候,但将这些数据转化为实际价值却仍然困难重重。

佚名 ·  2021-04-28 16:00:55
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载