LeNet 改进:ReLU 激活函数、最大池化、卷积核大小调整、正则化方法和模型集成
本文基于 LeNet 模型,分别进行了以下改进,并比较了改进前后的模型性能:
- 激活函数的改进:将 LeNet 中的激活函数替换为 ReLU。
- 池化方式:平均池化改为最大池化。
- 卷积核大小:将其中一个 55 的卷积核修改为 77。
- 正则化方法 1:在全连接层后加入 Dropout 层(中间的全连接层可增加维度)。
- 正则化方法 2:卷积层后加入 BatchNorm 层。
扩展任务:
- 数据增强:在训练集上进行数据增强(例如,翻转、旋转、缩放等)。
- 模型集成:组合多个训练好的模型,以提高准确率。
原文地址: https://www.cveoy.top/t/topic/oae4 著作权归作者所有。请勿转载和采集!