您的位置:首页 > 游戏 > 手游 > 设计类招聘网站_外发加工会计分录_推广普通话宣传海报_互联网营销师报名入口

设计类招聘网站_外发加工会计分录_推广普通话宣传海报_互联网营销师报名入口

2024/12/23 1:48:00 来源:https://blog.csdn.net/qq_58158950/article/details/143648839  浏览:    关键词:设计类招聘网站_外发加工会计分录_推广普通话宣传海报_互联网营销师报名入口
设计类招聘网站_外发加工会计分录_推广普通话宣传海报_互联网营销师报名入口

基本文件 

 文件目录结构

|- bert-base-chinese
|-- 各种checkpoint文件
|- test.py

加载模型

测试代码:如果加载成功,就打印1

from transformers import AutoModelForMaskedLMmodel = AutoModelForMaskedLM.from_pretrained("./bert-base-chinese")print(1)

加载tokenizer

from transformers import AutoTokenizertokenizer = AutoTokenizer.from_pretrained("./bert-base-chinese")print(1)

项目组件

一个完整的transformer模型主要包含三部分:

Config

控制模型的名称、最终输出的样式、隐藏层宽度和深度、激活函数的类别等。

将Config类导出时文件格式为 json格式,就像下面这样:

{"attention_probs_dropout_prob": 0.1,"hidden_act": "gelu","hidden_dropout_prob": 0.1,"hidden_size": 768,"initializer_range": 0.02,"intermediate_size": 3072,"max_position_embeddings": 512,"num_attention_heads": 12,"num_hidden_layers": 12,"type_vocab_size": 2,"vocab_size": 30522
}

当然,也可以通过config.json来实例化Config类,这是一个互逆的过程。

Tokenizer

这是一个将纯文本转换为编码的过程。注意,Tokenizer并不涉及将词转化为词向量的过程,仅仅是将纯文本分词,添加[MASK]标记、[SEP]、[CLS]标记,并转换为字典索引。Tokenizer类导出时将分为三个文件,也就是:

  • vocab.txt

    词典文件,每一行为一个词或词的一部分

  • special_tokens_map.json 特殊标记的定义方式

    {"unk_token": "[UNK]", "sep_token": "[SEP]", "pad_token": "[PAD]", "cls_token": "[CLS]", "mask_token": "[MASK]"}
    
  • tokenizer_config.json 配置文件,主要存储特殊的配置。

Model

也就是各种各样的模型。除了初始的Bert、GPT等基本模型,针对下游任务,还定义了诸如BertForQuestionAnswering等下游任务模型。模型导出时将生成config.jsonpytorch_model.bin参数文件。前者就是1中的配置文件,这和我们的直觉相同,即config和model应该是紧密联系在一起的两个类。后者其实和torch.save()存储得到的文件是相同的,这是因为Model都直接或者间接继承了Pytorch的Module类。从这里可以看出,HuggingFace在实现时很好地尊重了Pytorch的原生API。

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com