您正在使用 <class 'transformers.models.llama.tokenization_llama.LlamaTokenizer'> 的旧版本,这意味着在特殊标记之后的标记将无法正确处理。我们建议您阅读相关的拉取请求,链接在 https://github.com/huggingface/transformers/pull/24565。

Traceback (most recent call last): File "d:\智能家居GIT\test_py\passkeys\Chinese-Llama-2-7b-main\api.py", line 64, in model = AutoModelForCausalLM.from_pretrained( File "D:\python\lib\site-packages\transformers\models\auto\auto_factory.py", line 493, in from_pretrained return model_class.from_pretrained( File "D:\python\lib\site-packages\transformers\modeling_utils.py", line 2903, in from_pretrained ) = cls._load_pretrained_model( File "D:\python\lib\site-packages\transformers\modeling_utils.py", line 3002, in _load_pretrained_model raise ValueError( ValueError: The current device_map had weights offloaded to the disk. Please provide an offload_folder for them. Alternatively, make sure you have safetensors installed if the model you are using offers the weights in this format.

关于报错信息中的问题,您需要根据报错信息提供一个 offload_folder 来加载权重。另外,如果您使用的模型提供了这种格式的权重,请确保已安装 safetensors

您可以尝试以下方法来解决问题:

  1. 更新 transformers 库到最新版本,可以使用命令 pip install --upgrade transformers 来更新。
  2. 检查您的代码是否使用了正确版本的 LlamaTokenizer 和 AutoModelForCausalLM。确保使用的是最新版本,并且与您下载的预训练模型相匹配。
  3. 如果您已经安装了 safetensors 库,可以尝试重新安装它,使用命令 pip uninstall safetensors,然后再使用 pip install safetensors 重新安装。
  4. 如果您的模型提供了离线权重文件,您需要提供一个 offload_folder 来加载这些权重文件。您可以将离线权重文件下载到本地,并将文件夹路径作为参数传递给 from_pretrained 函数。

如果问题仍然存在,请提供更多的代码和错误信息,以便我们能够更好地帮助您解决问题。

LlamaTokenizer 旧版本使用警告和权重加载错误解决方法

原文地址: https://www.cveoy.top/t/topic/qhLz 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录