使用tanh的主要原因是它在取值范围上比sigmoid更广,即从-1到1,而sigmoid的取值范围是从0到1。因此,tanh可以更好地处理负数输入,并且在梯度下降时更容易收敛。另外,sigmoid存在梯度饱和问题,当输入值过大或过小时,其梯度会变得非常小,导致训练过程变得缓慢。因此,tanh更适合用于深层神经网络的训练。

Tanh vs Sigmoid: 为什么在深度学习中更倾向于使用Tanh激活函数?

原文地址: https://www.cveoy.top/t/topic/mAEE 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录