解决"ValueError: Error initializing torch.distributed using env:// rendezvous: environment variable MASTER_PORT expected, but not set" 错误
这个错误是由于在初始化torch.distributed时缺少'MASTER_PORT'环境变量引起的。torch.distributed用于分布式训练,它需要设置这些环境变量来建立进程组。你可以尝试在代码中添加以下代码来设置这些变量:
import os
os.environ['MASTER_ADDR'] = 'localhost' # 设置主节点的地址,可以是IP地址或主机名
os.environ['MASTER_PORT'] = '1234' # 设置主节点的端口号
# 在这之后执行torch.distributed相关的操作
请确保将'localhost'替换为实际的主节点地址,'1234'替换为实际的主节点端口号。这样应该能够解决该错误。
原文地址: https://www.cveoy.top/t/topic/qr8J 著作权归作者所有。请勿转载和采集!