重新排版并降重以下内容不能有学术重复:假设这里有一个比较浅的网络达到了饱和的准确率在后面再加上几个y=x的全等映射层后起码误差不会增加即是更深的网络不应该再带来训练集上的误差上升而到了这里提到的将前一层的输出传递到后面的思想就是使用的全等映射就是 ResNet 的灵感来源。假设某一个神经网络它的输入是x那么它的期望输出就是Hx那如果我们直接把输入x传递到输出作为初始结果的话那么此时我们需要学习的目
假设一个浅层网络已经达到了饱和的准确率,即使再添加几个全等映射层,误差也不会增加。这表明更深的网络不应该带来训练集上的误差上升。ResNet的灵感来源于使用全等映射来将前一层的输出传递到后面。如果一个神经网络的输入是x,那么期望输出就是H(x)。如果我们直接将输入x传递到输出作为初始结果,那么需要学习的目标就是F(x) = H(x) - x。一个残差学习单元(Residual Unit)如下图所示。ResNet的学习目标是输出和输入的差别H(x) - x,即残差。
原文地址: https://www.cveoy.top/t/topic/ev5G 著作权归作者所有。请勿转载和采集!