执行代码from transformers import AutoModel AutoTokenizerimport gradio as grimport mdtex2htmlfrom utils import load_model_on_gpustokenizer = AutoTokenizerfrom_pretrainedDworkChatGLM2-6BTHUDMchatglm2-6b-int
这个错误通常是由于没有正确初始化CUDA引起的。请确保您的系统上安装了CUDA,并且驱动程序和CUDA版本与您安装的PyTorch版本兼容。您可以尝试以下解决方法:
-
检查CUDA是否正确安装并配置。您可以通过在命令行中运行
nvcc --version来检查CUDA是否正确安装。如果显示了CUDA的版本信息,则表示CUDA已经正确安装。 -
检查PyTorch版本是否与CUDA兼容。您可以在PyTorch官方网站上查找PyTorch版本与CUDA版本的兼容性矩阵,并确保您安装的PyTorch版本与您的CUDA版本兼容。
-
检查CUDA驱动程序是否正确安装并与CUDA版本兼容。您可以在NVIDIA官方网站上下载并安装适合您的系统的最新CUDA驱动程序。
-
确保您的代码在CUDA设备上运行之前正确初始化CUDA。您可以在代码的开头添加如下代码来初始化CUDA:
import torch
if torch.cuda.is_available():
torch.cuda.init()
如果您还遇到问题,请提供更多关于您的系统配置、CUDA和PyTorch版本的详细信息,以便我们更好地帮助您解决问题
原文地址: https://www.cveoy.top/t/topic/iznk 著作权归作者所有。请勿转载和采集!