| 配置项 | 含义 | | ---------------------- | ------------------------------------------------------------ | | torch.version.cuda | 当前 PyTorch 使用的 CUDA 版本 | | torch.backends.cudnn.enabled | 是否启用 cudnn 加速,若不启用则使用默认的 nn 库 | | torch.backends.cudnn.benchmark | 是否使用自适应算法来选择最优的卷积算法,适用于输入大小不变的情况 | | torch.backends.cudnn.deterministic | 是否保证每次结果一致,适用于调试和测试阶段 | | torch.cuda.is_available()| 是否支持 CUDA 加速 | | torch.cuda.device_count() | 当前系统中可用的 GPU 数量 | | torch.cuda.current_device() | 当前使用的 GPU 编号 | | torch.cuda.get_device_name() | 当前使用的 GPU 的名称 | | torch.cuda.memory_allocated() | 当前系统中已分配的 GPU 内存 | | torch.cuda.memory_cached() | 当前系统中 GPU 缓存的内存大小 | | torch.cuda.empty_cache() | 清空 GPU 缓存,释放内存 | | torch.cuda.synchronize() | 同步 CPU 和 GPU 的计算结果 |

pytorch 配置对照表

原文地址: https://www.cveoy.top/t/topic/txw 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录