For optimization we adopt the stochastic gradientdescent SGD with the standard back propagation to minimizethe reconstruction and temporal loss jointly In particularthe weights in our StfNet are updat
为了优化,我们采用随机梯度下降(SGD)与标准的反向传播方法来共同最小化重构和时间损失。特别地,我们的StfNet中的权重更新方式为xxxx。其中n ∈ 0,1和l ∈ 1,2,3是两个映射模型M 0 和M 1 的索引,i是迭代次数,m是动量,η是学习率,zzz是导数。
原文地址: https://www.cveoy.top/t/topic/i3vo 著作权归作者所有。请勿转载和采集!