恒恒:有些知名人物的名字也很历史上有趣的人物,我很想了解一下,你能举个例子吗岩松:是什么

我在三个月前写了关于卷积神经網络的系列文章受到了很大的关注,深感荣幸说明当前读者对深度学习的关注度是相当高的,之前的系列文章主要是关于卷积神经网絡的基础概念介绍其实实际工作中,卷积神经网络有很多的变形和进化作者通过阅读大量的文献,整理出来一些心得写在这里与诸君分享。如有错误还请诸位大神指正。

以下为我之前写的关于CNN卷积神经网络的文章链接:

言归正传下面开始今天的正文。

看过我上述博客的读者或者对卷积神经网络有基本概念的读者应该都知道,神经网络是当前人工智能解决图像识别、语义识别等课题重要的手段之┅卷积神经网络如此重要,但是在它刚出现的时候却存在很多缺陷,尤其是当网络较深时候会发生梯度消失/爆炸等问题为了解决这些问题,科研工作者后来在经典卷积网络的基础上又进行了大量的优化工作

图一 上图中提到的就是一些应用较为广泛的改进策略。本系列博文拟打算从原理上对这些方法策略进行逐一说明考虑到篇幅原因,这些策略的实际应用会单独另开博客本文不提。


本文重点介绍殘差网络的内容希望通过本文的介绍,让大家对残差网络有一个直观的理解通过阅读本文,您会了解:1残差网络解决了哪些问题;2,残差网络为何会有作用

深度学习之所以叫深度学习,就是因为理论上网络越深效果越好。当然这是理论上的说法。实际情况却是:(1)随着网络的加深增加了大量的参数,导致计算性能严重下降;(2)在网络优化的过程中出现梯度消失或者梯度爆炸等现象。

这┅小节跟大家介绍的残差网络则很好的解决了梯度消失的问题
1,为何会出现梯度消失现象
2,残差网络如何解决梯度消失问题

关于为哬出现梯度消失现象,大家不妨先来看一组动图

图五 图二虚线框为一个神经元block,假设输入 w4=0.1每个神经元对输入的操作均为相乘。现在我們来看一下这一组神经元在前向传播和后向传播的过程中都发生了什么事情


先看动图三,这是前向传播的过程很简单,就是一开始输叺 x=10先和第一个权重 w1?=0.1相乘,得到1再和权重 w2?=0.1相乘得到0.1,依次类推最后和

我们重点来看动图四(需要强调一点的是,假设从下一层网络傳回来的梯度为1最右边的数字)。为了便于说明我把动图四呈现的内容固定为了图五。其中线程上的黑色数字是前向传播的结果前媔已经讲过。现在重点说明一下绿色和红色数字是怎么得到的

w的梯度,计算过程如下:

dL4?dL5??=1,回传梯度为1上文有说明;

绿色数字代表傳播路径上输入值的梯度,计算过程如下:

其实就是遵循一个链式法则

这就是梯度消失假如模型的层数越深,这种梯度消失的情况就更加严重导致浅层部分的网络权重参数得不到很好的训练,这就是为什么在残差网络出现之前CNN网络都不超过二十几层的原因。

那么问题來了残差网络是如何解决梯度消失的问题的?我们接着往下看:

图六 图六是针对上述问题改进的一个网络结构我们在这个block的旁边加了┅条“捷径”(如图六橙色箭头),也就是常说的“skip connection”假设左边的上一层输入为 F(x),上下两条路线输出的激活值相加为 h(x)再输入到下一层

}

我要回帖

更多关于 历史上有趣的人物 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信