您的位置:首页 > 房产 > 家装 > BUG:AttributeError: ‘GLMChineseTokenizer‘ object has no attribute ‘sp_model’

BUG:AttributeError: ‘GLMChineseTokenizer‘ object has no attribute ‘sp_model’

2025/1/11 8:31:39 来源:https://blog.csdn.net/qq_38463737/article/details/139731888  浏览:    关键词:BUG:AttributeError: ‘GLMChineseTokenizer‘ object has no attribute ‘sp_model’

BUG:AttributeError: ‘GLMChineseTokenizer’ object has no attribute 'sp_model’

环境

Python 3.10
torch 2.0.1
transformers 4.37.0

详情

在运行 glm-large-chinese 模型时弹出的BUG,具体原因不清楚,大概是 transformers 版本改变了,导致一些接口导入方式改变,而glm-large-chinese 的代码还是旧版的。

解决方法

打开模型附带的 tokenization_glm.py 代码文件。修改 GLMChineseTokenizer 类初始化。

# 原始
def __init__(self, vocab_file, **kwargs):super().__init__(**kwargs)  # 置后self.vocab_file = vocab_fileself.sp_model = spm.SentencePieceProcessor()self.sp_model.Load(vocab_file)# 修改
def __init__(self, vocab_file, **kwargs):self.vocab_file = vocab_fileself.sp_model = spm.SentencePieceProcessor()self.sp_model.Load(vocab_file)super().__init__(**kwargs)  # 置后

参考

https://github.com/baichuan-inc/Baichuan2/issues/204

解决‘BaichuanTokenizer‘ object has no attribute ‘sp_model‘,无需重装transformers和torch_baichuantokenizer’ obiect has no attribute’sp mode-CSDN博客

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com