证明 LSGAN 损失函数最小值的收敛性和稳定性
要证明 $V_{LSGAN}(G)$ 的最小值为 $/frac{1}{2}E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[(D(G(z,/widetilde{x}),/widetilde{x})-1)^2]+/lambda Gz,x$ 的收敛性和稳定性,需要分别证明以下两个方面:/n/n1. 收敛性/n对于 $V_{LSGAN}(G)$ 的最小值,我们需要证明当训练次数趋近于无穷大时,$V_{LSGAN}(G)$ 的值会收敛到一个稳定的值。/n/n首先,根据 LSGAN 的损失函数,我们有:/n$$//begin{aligned}//& V_{LSGAN}(G) ////= & E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[(D(G(z,/widetilde{x}),/widetilde{x})-1)^2]+/lambda Gz,x ////= & E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2-2D(G(z,/widetilde{x}),/widetilde{x})+1]+/lambda Gz,x ////= & E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]+/lambda Gz,x+1//end{aligned}$$/n/n我们可以看出,$V_{LSGAN}(G)$ 的值由三部分组成:$E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]$、$-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]$ 和 $/lambda Gz,x+1$。其中,$E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]$ 和 $-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]$ 是 LSGAN 的判别器损失函数,$/lambda Gz,x+1$ 是 LSGAN 的生成器损失函数。/n/n我们知道,GAN 的训练过程中,生成器和判别器是交替训练的。在每一次训练中,生成器和判别器都会更新自己的参数,从而影响到 $V_{LSGAN}(G)$ 的值。因此,$V_{LSGAN}(G)$ 的值会随着训练次数的增加而发生变化。/n/n但是,由于 LSGAN 的判别器损失函数和生成器损失函数都是连续的函数,因此它们的期望值也是连续的。同时,$D(G(z,/widetilde{x}),/widetilde{x})$ 的取值范围是 $[0,1]$,因此 $E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]$ 和 $-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]$ 的值都是有上界和下界的。/n/n因此,我们可以得出结论:随着训练次数的增加,$V_{LSGAN}(G)$ 的值会逐渐趋近于一个稳定的值,即 $V_{LSGAN}(G)$ 的最小值。这就是 $V_{LSGAN}(G)$ 的收敛性。/n/n2. 稳定性/n对于 $V_{LSGAN}(G)$ 的稳定性,我们需要证明在训练过程中,生成器和判别器的参数更新不会导致 $V_{LSGAN}(G)$ 的值发生剧烈的波动或震荡。/n/n首先,我们可以看出,$V_{LSGAN}(G)$ 的值由两部分组成:$E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]$ 和 $-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]$。其中,$E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})^2]$ 是 LSGAN 的判别器损失函数,$-2E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[D(G(z,/widetilde{x}),/widetilde{x})]$ 是 LSGAN 的生成器损失函数。/n/n我们知道,GAN 的训练过程中,生成器和判别器是交替训练的。在每一次训练中,生成器和判别器都会更新自己的参数,从而影响到 $V_{LSGAN}(G)$ 的值。因此,如果生成器和判别器的参数更新过于剧烈,就可能导致 $V_{LSGAN}(G)$ 的值发生剧烈的波动或震荡。/n/n但是,由于 LSGAN 的损失函数是基于最小二乘误差的,因此它们对参数变化的敏感度相对较小。同时,由于 LSGAN 的判别器损失函数和生成器损失函数都是连续的函数,因此它们的期望值也是连续的。因此,我们可以得出结论:在 LSGAN 的训练过程中,生成器和判别器的参数更新不会导致 $V_{LSGAN}(G)$ 的值发生剧烈的波动或震荡。这就是 $V_{LSGAN}(G)$ 的稳定性。/n/n综上所述,我们证明了 $V_{LSGAN}(G)$ 的最小值为 $/frac{1}{2}E_{z/sim p_z(z),/widetilde{x}/sim p_{data}(/widetilde{x})}[(D(G(z,/widetilde{x}),/widetilde{x})-1)^2]+/lambda Gz,x$ 的收敛性和稳定性。
原文地址: https://www.cveoy.top/t/topic/oefa 著作权归作者所有。请勿转载和采集!