人工神经网络中的主要激励函数
以下几种:
-
Sigmoid函数(也叫Logistic函数):将输入的值映射到0到1之间的范围内,常用于二分类问题。
-
ReLU函数(Rectified Linear Unit):当输入值大于0时,输出为输入值;当输入值小于等于0时,输出为0。常用于深度学习中的卷积神经网络。
-
Tanh函数(双曲正切函数):将输入的值映射到-1到1之间的范围内,常用于分类问题。
-
Softmax函数:将多个输入值映射到0到1之间的范围内,并且总和为1。常用于多分类问题。
-
ELU函数(Exponential Linear Units):当输入值大于0时,输出为输入值;当输入值小于等于0时,输出为'α(e^x - 1)',其中α为常数。常用于深度学习中的卷积神经网络。
原文地址: https://www.cveoy.top/t/topic/n0lo 著作权归作者所有。请勿转载和采集!