使用ReLU激活函数导致网络的性能急剧下降,有时甚至会使整个神经网络瘫痪?
由于不良梯度的影响,带有ReLU激活函数的网络通常会受到“坏死神经”的影响,如果你发现多个训练周期以后损失函数都没有收敛,那么可能是由于ReLU激活函数造成的。尝试切换到leaky ReLU或ELU。然后再看看问题是否解决。
2,851
社区成员
5,758
社区内容
加载中
试试用AI创作助手写篇文章吧