ReLU(Rectified Linear Unit)是一种常用的激活函数,其参数非常简单,只有一个阈值参数,通常被设置为0。当输入小于0时,输出为0;当输入大于等于0时,输出等于输入。因此,ReLU的参数只有一个阈值,可以通过调整该阈值来影响模型的性能。


原文地址: https://www.cveoy.top/t/topic/mqh0 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录