梯度消失问题造成的原因是什么【详细讲解】

今天爱分享给大家带来梯度消失问题造成的原因是什么【详细讲解】,希望能够帮助到大家。
Yes you should understand backdrop-Andrej Karpathy
How does the ReLu solve the vanishing gradient problem?
神经网络的训练中,通过改变神经元的权重,使网络的输出值尽可能逼近标签以降低误差值,训练普遍使用BP算法,核心思想是,计算出输出与标签间的损失函数值,然后计算其相对于每个神经元的梯度,进行权值的迭代。
梯度消失会造成权值更新缓慢,模型训练难度增加。造成梯度消失的一个原因是,许多激活函数将输出值挤压在很小的区间内,在激活函数两端较大范围的定义域内梯度为0,造成学习停止。

简而言之,就是sigmoid函数f(x)的导数为f(x)*(1-f(x)), 因为f(x)的输出在0-1之间,所以随着深度的增加,从顶端传过来的导数每次都乘以两个小于1的数,很快就变得特别特别小。

人已赞赏
Python

数据预处理方法有哪些【详细讲解】

2020-12-24 19:01:26

Python

数据处理和特征工程的处理有哪些?【详细讲解】

2020-12-24 19:09:38

'); })();