在Python中,可以使用torch.cuda.is_available()函数来判断GPU是否可用,返回True表示GPU可用,返回False表示GPU不可用。

另外,可以使用torch.cuda.device_count()函数来获取当前系统中可用的GPU数量,返回一个整数表示可用的GPU数量。

如果要确定代码在GPU上成功运行,可以在代码中使用torch.cuda.current_device()函数来获取当前正在使用的GPU的索引,返回一个整数表示当前正在使用的GPU的索引。

以下是一个示例代码:

import torch

# 判断GPU是否可用
if torch.cuda.is_available():
    print("GPU可用")
else:
    print("GPU不可用")

# 获取可用的GPU数量
num_gpu = torch.cuda.device_count()
print("可用的GPU数量:", num_gpu)

# 获取当前正在使用的GPU的索引
current_gpu = torch.cuda.current_device()
print("当前正在使用的GPU的索引:", current_gpu)

注意:以上代码需要在已经安装了PyTorch和CUDA驱动的环境中运行。

python如何确定在代码运行过程中GPU成功加载?

原文地址: https://www.cveoy.top/t/topic/iHAN 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录