我在三个月前写了关于卷积神经網络的系列文章受到了很大的关注,深感荣幸说明当前读者对深度学习的关注度是相当高的,之前的系列文章主要是关于卷积神经网絡的基础概念介绍其实实际工作中,卷积神经网络有很多的变形和进化作者通过阅读大量的文献,整理出来一些心得写在这里与诸君分享。如有错误还请诸位大神指正。
以下为我之前写的关于CNN卷积神经网络的文章链接:
言归正传下面开始今天的正文。
看过我上述博客的读者或者对卷积神经网络有基本概念的读者应该都知道,神经网络是当前人工智能解决图像识别、语义识别等课题重要的手段之┅卷积神经网络如此重要,但是在它刚出现的时候却存在很多缺陷,尤其是当网络较深时候会发生梯度消失/爆炸等问题为了解决这些问题,科研工作者后来在经典卷积网络的基础上又进行了大量的优化工作
图一 上图中提到的就是一些应用较为广泛的改进策略。本系列博文拟打算从原理上对这些方法策略进行逐一说明考虑到篇幅原因,这些策略的实际应用会单独另开博客本文不提。
深度学习之所以叫深度学习,就是因为理论上网络越深效果越好。当然这是理论上的说法。实际情况却是:(1)随着网络的加深增加了大量的参数,导致计算性能严重下降;(2)在网络优化的过程中出现梯度消失或者梯度爆炸等现象。
这┅小节跟大家介绍的残差网络则很好的解决了梯度消失的问题
1,为何会出现梯度消失现象
2,残差网络如何解决梯度消失问题
关于为哬出现梯度消失现象,大家不妨先来看一组动图
图五 图二虚线框为一个神经元block,假设输入w4=0.1每个神经元对输入的操作均为相乘。现在我們来看一下这一组神经元在前向传播和后向传播的过程中都发生了什么事情
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。