什么是梯度爆炸?

梯度爆炸(Gradient Explosion)是指在训练深度神经网络时,通过反向传播算法计算梯度时出现的现象:当网络层数过深、激活函数选择不当或权重初始化不合理时,梯度值会指数级增长,导致权重更新过大,模型参数剧烈震荡,训练过程不稳定甚至 […]

什么是梯度消失?

梯度消失(Vanishing Gradient)是指在深度神经网络的反向传播训练过程中,梯度值随着网络层数的增加而逐层减小至接近零的现象。这主要源于某些激活函数(如sigmoid或tanh)在饱和区域输出变化微小,导致梯度在链式法则中指数级 […]