深度学习激活函数:Tanh VS Sigmoid,哪个更优?
使用Tanh的原因是它可以将输入映射到[-1, 1]的范围内,因此对于对称数据集的分类任务,Tanh的效果可能比Sigmoid更好。而Sigmoid函数将输入映射到(0, 1)的范围内,其缺点是在输入接近0或1时,梯度会非常小,这会导致梯度消失的问题,影响模型的学习效果。因此,在深度学习中,通常会使用其他的激活函数,例如ReLU或LeakyReLU,它们可以更好地解决梯度消失的问题。
原文地址: https://www.cveoy.top/t/topic/mAEC 著作权归作者所有。请勿转载和采集!