不会,因为每次循环时,total_grad 变量是重新定义的,它的值被设置为全零矩阵,而不是从上一次循环中的值继承下来。因此,每次循环时,total_grad 都是全新的,不会受到上一次循环中的值的影响。

PyTorch 中 for 循环内的 total_grad 变量是否每次都会清零?

原文地址: https://www.cveoy.top/t/topic/nw2s 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录