您的位置:首页 > 游戏 > 手游 > 品牌vi设计手册ppt_武汉建网站_淘宝seo是什么意思啊_百度广告怎么收费标准

品牌vi设计手册ppt_武汉建网站_淘宝seo是什么意思啊_百度广告怎么收费标准

2024/10/31 9:21:01 来源:https://blog.csdn.net/qq_43814415/article/details/143119527  浏览:    关键词:品牌vi设计手册ppt_武汉建网站_淘宝seo是什么意思啊_百度广告怎么收费标准
品牌vi设计手册ppt_武汉建网站_淘宝seo是什么意思啊_百度广告怎么收费标准

https://hf-mirror.com/OpenAssistant/reward-model-deberta-v3-large-v2是在做合成数据的质量打分时的奖励模型。

模型依托deberta-v3-large-v2编码模型,给定一个qa对,能够给出一个分数来衡量qa对的质量。没有公开训练细节,由于模型的输出层是一个线性层且没有激活函数,输出的 原始分数(logits) 可以是任何实数,范围从负无穷到正无穷。一般删掉小于0的样本。

模型结构如下:

DebertaV2ForSequenceClassification((deberta): DebertaV2Model((embeddings): DebertaV2Embeddings((word_embeddings): Embedding(128100, 1024, padding_idx=0)(LayerNorm): LayerNorm((1024,), eps=1e-07, elementwise_affine=True)(dropout): StableDropout())(encoder): DebertaV2Encoder((layer): ModuleList((0-23): 24 x DebertaV2Layer((attention): DebertaV2Attention((self): DisentangledSelfAttention((query_proj): Linear(in_features=1024, out_features=1024, bias=True)(key_proj): Linear(in_features=1024, out_features=1024, bias=True)(value_proj): Linear(in_features=1024, out_features=1024, bias=True)(pos_dropout): StableDropout()(dropout): StableDropout())(output): DebertaV2SelfOutput((dense): Linear(in_features=1024, out_features=1024, bias=True)(LayerNorm): LayerNorm((1024,), eps=1e-07, elementwise_affine=True)(dropout): StableDropout()))(intermediate): DebertaV2Intermediate((dense): Linear(in_features=1024, out_features=4096, bias=True)(intermediate_act_fn): GELUActivation())(output): DebertaV2Output((dense): Linear(in_features=4096, out_features=1024, bias=True)(LayerNorm): LayerNorm((1024,), eps=1e-07, elementwise_affine=True)(dropout): StableDropout())))(rel_embeddings): Embedding(512, 1024)(LayerNorm): LayerNorm((1024,), eps=1e-07, elementwise_affine=True)))(pooler): ContextPooler((dense): Linear(in_features=1024, out_features=1024, bias=True)(dropout): StableDropout())(classifier): Linear(in_features=1024, out_features=1, bias=True)(dropout): StableDropout()
)

可以看到是用DebertaV2为嵌入层和编码层(24个),然后加了池化层和分类层。
DebertaV2Model:核心的预训练语言模型部分,包括嵌入层和编码器。Embeddings(嵌入层)。Encoder(编码器)
Pooler(池化层):用于提取句子的整体表示。
Classifier(分类器):用于最终的分类任务。

DeBERTa系列模型的优化点

相比于BERT,提出了解耦注意力、RTD、增强的掩码解码器、梯度解耦嵌入共享、多语言。

解耦注意力机制(Disentangled Attention)

DeBERTa引入了解耦注意力机制,将每个输入词的内容和位置分别用两个独立的向量表示。这样,在计算注意力权重时,可以分别考虑内容和相对位置,而不需要同时考虑内容和绝对位置。
在这里插入图片描述

增强的掩码解码器(Enhanced Mask Decoder)

在掩码语言建模(MLM)的解码层中添加了上下文词的绝对位置信息,从而改进了MLM的效果。

替换令牌检测(Replaced Token Detection, RTD)

DeBERTaV3采用了ELECTRA中的RTD任务来替代传统的MLM任务。RTD任务使用一个生成器来生成模糊的替换词,并使用一个判别器来区分原始词和替换词。

梯度解耦嵌入共享(Gradient-Disentangled Embedding Sharing, GDES)

在这里插入图片描述

多语言

使用CC100多语言数据集进行预训练

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com