import torch

class hparams():
    def __init__(self):
        self.train_scp = 'scp/train_segan.scp'

        self.fs = 16000
        self.win_len = 16384

        self.ref_batch_size = 400

        self.lr_G = 2e-4
        self.lr_D = 2e-4

        self.batch_size = 64
        self.n_epoch = 100

        self.size_z = (1024, 8)

        self.w_g_loss1 = 0.5
        self.w_g_loss2 = 2

        self.save_path = 'save'
        self.n_epoch = 90

        self.ref_batch_size = 128
        self.path_save = 'save'

代码每句具体意思内容:

  1. import torch: 导入 PyTorch 库。

  2. 定义 hparams 类,该类包含训练数据的 train_scp 路径、采样率 fs、窗口长度 win_len、参考批量大小 ref_batch_size、生成器和判别器的学习率 lr_Glr_D、批量大小 batch_size、迭代次数 n_epoch、噪声向量 size_z 大小、生成器损失的权重 w_g_loss1w_g_loss2、模型保存路径 save_path、以及参考批量大小和模型保存路径的另一种定义。

  3. self.train_scp = 'scp/train_segan.scp': 将训练数据路径设置为 train_segan.scp 文件的路径。

  4. self.fs = 16000: 将采样率设置为 16000。

  5. self.win_len = 16384: 将窗口长度设置为 16384。

  6. self.ref_batch_size = 400: 将参考批量大小设置为 400。

  7. self.lr_G = 2e-4: 将生成器的学习率设置为 2e-4。

  8. self.lr_D = 2e-4: 将判别器的学习率设置为 2e-4。

  9. self.batch_size = 64: 将批量大小设置为 64。

  10. self.n_epoch = 100: 将迭代次数设置为 100。

  11. self.size_z = (1024, 8): 将噪声向量大小设置为 (1024, 8)。

  12. self.w_g_loss1 = 0.5: 将生成器损失的权重设置为 0.5。

  13. self.w_g_loss2 = 2: 将生成器损失的权重设置为 2。

  14. self.save_path = 'save': 将模型保存路径设置为 'save'。

  15. self.n_epoch = 90: 将迭代次数重新设置为 90。

  16. self.ref_batch_size = 128: 将参考批量大小重新设置为 128。

  17. self.path_save = 'save': 将模型保存路径重新设置为 'save'。

PyTorch 中的语音生成模型训练参数设置

原文地址: https://www.cveoy.top/t/topic/nw2p 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录