以下几种:

  1. Sigmoid函数(也叫Logistic函数):将输入的值映射到0到1之间的范围内,常用于二分类问题。

  2. ReLU函数(Rectified Linear Unit):当输入值大于0时,输出为输入值;当输入值小于等于0时,输出为0。常用于深度学习中的卷积神经网络。

  3. Tanh函数(双曲正切函数):将输入的值映射到-1到1之间的范围内,常用于分类问题。

  4. Softmax函数:将多个输入值映射到0到1之间的范围内,并且总和为1。常用于多分类问题。

  5. ELU函数(Exponential Linear Units):当输入值大于0时,输出为输入值;当输入值小于等于0时,输出为'α(e^x - 1)',其中α为常数。常用于深度学习中的卷积神经网络。


原文地址: https://www.cveoy.top/t/topic/n0lo 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录