在深度学习中,增加神经网络的层数往往会带来计算资源消耗、过拟合、梯度消失或爆炸等问题。为了避免这些问题,可以从多个方面进行预防和解决。然而,研究表明,随着网络层数的增加,网络性能会出现退化现象。这意味着,虽然训练集的损失会逐渐下降并趋于稳定,但如果继续增加网络深度,训练集的损失反而会增加。需要注意的是,这种现象与过拟合不同,因为在过拟合中,训练集的损失会一直减小。

在VGG中卷积网络达到了19层在GoogLeNet中网络史无前例地达到了22层。而在深度学习中网络层数增多一般容易导致计算资源消耗、过拟合、梯度消失或爆炸等多种问题这些问题可以从多个方面得到预防和解决。但现有的实验数据表明随着神经网络层数的增加网络性能会出现退化26degradation现象。这意味着随着网络层数的增多训练集的损失会逐渐下降并趋于稳定但如果继续增加网络深度训练集的损失反而会增加。需

原文地址: https://www.cveoy.top/t/topic/eEJL 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录