梯度消失问题是什麽原因造成【图文详解】

今天爱分享给大家带来梯度消失问题是什麽原因造成【图文详解】,希望能够帮助到大家。
神经网络的训练中,通过改变神经元的权重,使网络的输出值尽可能逼近标签以降低误差值,训练普遍使用BP算法,核心思想是,计算出输出与标签间的损失函数值,然后计算其相对于每个神经元的梯度,进行权值的迭代。
梯度消失会造成权值更新缓慢,模型训练难度增加。造成梯度消失的一个原因是,许多激活函数将输出值挤压在很小的区间内,在激活函数两端较大范围的定义域内梯度为0,造成学习停止。

简而言之,就是sigmoid函数f(x)的导数为f(x)*(1-f(x)), 因为f(x)的输出在0-1之间,所以随着深度的增加,从顶端传过来的导数每次都乘以两个小于1的数,很快就变得特别特别小。

人已赞赏
Python

如何做数据预处理【详细介解】

2020-12-4 11:08:27

Python

监督学习算法常见的有哪些【详细介解】

2020-12-4 14:45:08

'); })();