看看下面的代码还有啥能优化的class LeNetnnModule def __init__self superLeNetself__init__ selfconv1 = nnSequential nnConv2din_channels=1out_channels=6kernel_size=5stride=1padding=2
- 可以考虑对卷积层和全连接层的激活函数进行统一,比如使用ReLU作为所有层的激活函数。
- 可以将卷积层和池化层的顺序进行调整,先进行池化再进行卷积可以减少计算量。
- 可以考虑使用 nn.Sequential() 将网络结构简化,使代码更加简洁易读。
- 可以尝试使用 nn.AdaptiveAvgPool2d() 替换掉全连接层,这样可以使得网络在输入大小发生变化时依然有效。
原文地址: https://www.cveoy.top/t/topic/ddoW 著作权归作者所有。请勿转载和采集!