PyTorch 中的语音生成模型训练参数设置
import torch
class hparams():
def __init__(self):
self.train_scp = 'scp/train_segan.scp'
self.fs = 16000
self.win_len = 16384
self.ref_batch_size = 400
self.lr_G = 2e-4
self.lr_D = 2e-4
self.batch_size = 64
self.n_epoch = 100
self.size_z = (1024, 8)
self.w_g_loss1 = 0.5
self.w_g_loss2 = 2
self.save_path = 'save'
self.n_epoch = 90
self.ref_batch_size = 128
self.path_save = 'save'
代码每句具体意思内容:
-
import torch: 导入 PyTorch 库。 -
定义
hparams类,该类包含训练数据的train_scp路径、采样率fs、窗口长度win_len、参考批量大小ref_batch_size、生成器和判别器的学习率lr_G和lr_D、批量大小batch_size、迭代次数n_epoch、噪声向量size_z大小、生成器损失的权重w_g_loss1和w_g_loss2、模型保存路径save_path、以及参考批量大小和模型保存路径的另一种定义。 -
self.train_scp = 'scp/train_segan.scp': 将训练数据路径设置为train_segan.scp文件的路径。 -
self.fs = 16000: 将采样率设置为 16000。 -
self.win_len = 16384: 将窗口长度设置为 16384。 -
self.ref_batch_size = 400: 将参考批量大小设置为 400。 -
self.lr_G = 2e-4: 将生成器的学习率设置为 2e-4。 -
self.lr_D = 2e-4: 将判别器的学习率设置为 2e-4。 -
self.batch_size = 64: 将批量大小设置为 64。 -
self.n_epoch = 100: 将迭代次数设置为 100。 -
self.size_z = (1024, 8): 将噪声向量大小设置为 (1024, 8)。 -
self.w_g_loss1 = 0.5: 将生成器损失的权重设置为 0.5。 -
self.w_g_loss2 = 2: 将生成器损失的权重设置为 2。 -
self.save_path = 'save': 将模型保存路径设置为 'save'。 -
self.n_epoch = 90: 将迭代次数重新设置为 90。 -
self.ref_batch_size = 128: 将参考批量大小重新设置为 128。 -
self.path_save = 'save': 将模型保存路径重新设置为 'save'。
原文地址: https://www.cveoy.top/t/topic/nw2p 著作权归作者所有。请勿转载和采集!