您的位置:首页 > 汽车 > 时评 > 12 用户行为关联与推荐:多目标与多任务学习

12 用户行为关联与推荐:多目标与多任务学习

2025/2/8 14:18:42 来源:https://blog.csdn.net/zz_1205094250/article/details/140651758  浏览:    关键词:12 用户行为关联与推荐:多目标与多任务学习

在模块四,我们主要讲解推荐领域独特的问题及领域内经典问题的解法。学完这部分知识,你将掌握推荐特有场景的算法方案。

《易经》“九四:或跃在渊,无咎”。九四是指阳爻在卦中处于第四位,已经超越中位,跃龙指龙要么跃而上,要么退于渊中,见机行事即可无咎,重点在于把握时机。

因此,在学习本模块时,我们需要因时因地地结合当前业务场景,多发挥自己的主观能动性。

接下来,这一讲我们着重聊聊推荐领域的经典问题——多任务学习,并不断推演这个深度推荐模型的演化方向。

在 04 讲中我们说过,在大多数的互联网应用中,平台方很难直接通过某个指标就清楚了解到用户对推荐系统反馈结果的满意度。

比如 58 同城 App 本地服务业务中,用户在推荐场景下会存在点击、停留时长、收藏、打电话、微聊、评价等多种行为。

而且,随着业务变迁,不同指标的重要性也会发生变化。如果推荐算法,只能以某一种指标进行优化,就无法让其他指标也能同时达到最优,因为不同行为的意义和重要性不同。

比如 58 同城 App 本地服务业务中,因为打电话行为要比点击行为更重要,所以仅以点击率(CTR)为目标,不足以表达用户的喜好;再比如商业帖的点击率(CTR)更看重商业收入,而普通帖更看重打电话率,这就意味着拿某一个指标去衡量业务收益都会发生偏差。

因此,推荐算法必须要对多种指标进行同步优化,才能使得整个系统达到综合收益最大化,这就是研究多目标和多任务问题的缘由。

解决多目标优化问题:多任务学习

多任务学习,指将涉及多个相关的任务同时并行学习,并利用包含在相关任务中的特有领域信息来改善模型的泛化性。

相较于单任务学习,多任务学习存在以下 2 大优点。

  • 方便高效:一个模型解决了多个任务场景,大大提升了研发效率。

  • 数据增强:多个任务的多种样本数据汇集在一起,能达到数据增强的效果。比如针对数据稀少的新任务,可以解决冷启动问题;针对某些任务的参数,能够被其他任务行更好地进行辅助训练。

多任务学习的缺点是由于参数共享,当多个任务存在不相关部分时,任务就会相互扰乱,影响效果。所以,多任务学习要求同时进行学习的任务要保证具有相关性。

比如 58 同城 App 本地服务业务中,用户的浏览点击行为的重要性会弱于打电话行为,这就意味着推荐列表中 CVR 指标的重要性要高于 CTR 指标。

我们知道 CVR 的目标是预测点击后的打电话概念,然而用户在推荐列表的行为是有先后关系的:曝光——>点击——>打电话。因此,我们需要在 CTR 模型基础上建立 CVR 模型 ,才可以预测列表页的点击率。

通常来说,打电话行为会比点击行为少很多,这就意味着在训练 CVR 模型时,会遇到样本稀疏的问题。而且点击行为和打电话行为存在先后顺序关系,因此 CVR 模型采用点击行为之后的数据作为训练样本时,还需要基于整个列表曝光上的数据进行训练。不然就会导致采样存在偏差,同时使得模型预测点击后的打电话概率的准确率大大降低。

那么,能否将 CTR、CVR 二者在一个模型中进行综合考虑呢?为了解决这个问题,全量空间多任务模型(ESMM)便诞生了。

全量空间多任务模型(ESMM)

全量空间多任务模型(Entire Space Multi-Task Model,ESMM)采用迁移学习方法,将全量用户行为序列上作为样本,解决了推荐算法 CVR 预估过程中的采样偏差和样本稀疏问题。

关于 ESMM 模型的框架图如下:

  • 模型分为左右两部分,左半部分的拟合目标为 pCVR(用来预估 CVR 条件概率),右半部分的拟合目标为 pCTR(用来预估 CTR 条件概率)。

  • 左右两部分的输出结果相乘后便得到了 pCTCVR(用来预估点击后的转化率),然后将它作为整个模型的输出。

  • MultiLayer Perception:多层感知器

  • Field-wise Pooling Layer:域池化层 | Embedding Layer:表征层

  • CVR-task features:CVR任务特征 | CTR-task features:CTR任务特征

  • user field:用户域 | item field:物品域

  • Shared-Lookup Table:共享查询表 | element-wise:元素级操作 | Concatenate:拼接

  • Main Task:主任务 | Auxiliary Task:辅助任务

此时,pCTR、pCVR 与 pCTCVR 这三者的关系用公式如下:

由此可见,模型的建模目标 pCTR、pCVR 和 pCTCVR 都可以在整个样本空间上得到。针对 CTR、CVR 预估问题,业内深度推荐算法通常使用经典的 Embedding + MLP 范式框架结构进行解决。

有关该范式的框架我们在《10 | 深度推荐模型演化中的“更深与更专注“进阶路径》中已经详细讲述过了,这里不一一赘述了。

在上图中,我们发现左半部分就是基于 Embedding + MLP 范式框架的网络结构;右半部分(除 pCTCVR 计算部分外)也是基于 Embedding + MLP 范式框架的网络结构。ESMM 模型将该结构命名为 BASE 模型,并基于此进行改造。BASE 模型能根据不同的业务,随时将其变换为其他结构,由此我们看到了多任务模型在传统深度模型基础上的演化路径。

另外,我们还看到左右两部分在底层采用了共享 Embedding 的方式进行结合。

ESMM 模型解决了以下 2 类问题。

  • 采样偏差:我们将 pCTR、pCVR、pCTCVR 这三个关联的任务进行共同训练,然后在全部样本上进行建模。

  • 样本稀疏:共享 Embedding 遵循了迁移学习的范式,且 CTR 的样本比 CVR 样本丰富得多,利用 CTR 样本可以显著降低 pCVR 网络的数据稀疏问题,且该共享机制可以保证 pCVR 网络得到充分训练。

多任务学习采用共享各任务底层隐向量表征的方式,使得相关任务相互影响。因此,只有相关的任务之间才能较好地进行底层表征共享。因为不相关的任务底层表征差异太大,这么做会导致互相冲突,从而降低模型效能。所以,多任务学习要求同时进行学习的任务要保证具有相关性。

ESMM 模型的底层特征共享方式采用的是经典的 Shared-Bottom 结构,该结构最大的特点是共享方式只有在多任务之间相关性比较大的场景中才能起到优化作用,在多任务之间相关性比较小的场景中就不灵了。

而解决相关性不高的多个任务之间的多任务学习正是多门混合专家模型(MMoE) 需要解决的问题。

多门混合专家模型(MMoE)

多门混合专家模型(Multi-gate Mixture-of-Experts,MMoE)引入了特殊的混合专家模型(Mixture of Experts,MoE)来解决多任务相关性不能保证的问题,且算力增加可控。

因此,我们有必要先来了解下什么是 MoE 模型,关于 MoE 模型的结构图如下:

简单地说,MoE 模型是可以根据数据进行分离训练多个模型的新型神经网络范式,每个单一模型被称为专家,而门控模块用于选择使用哪个专家(无需添加更多新的参数),模型输出是门控模型的权重与专家模型输出的综合结果。

与前述 MLP、CNN、RNN 等范式一样,MoE 是神经网络的基本范式,它可以通过并行和串行的堆叠组成新的神经网络。

那么,MMoE 模型是如何使用 MoE 范式的呢?

下面我们一起看看如下所示的 MMoE 模型框架图:

  • Shared-Bottom model:共享底层模型

  • One-gate MoE model:单门混合专家模块 | Multi-gate MoE model:多门混合专家模块

  • Vector:向量 | Scalar:标量

a 为由 MLP 组成的经典的多任务学习 Shared-Bottom 网络结构,它将全部样本输入一个大型 MLP 模型中,然后将 MLP 的结果分别输出多个不同拟合目标的 MLP “塔”中,并将多个目标放在一起进行统一优化。

b 为在 a 基础上的优化,它在经典 Shared-Bottom 网络结构的基础上添加了门控制结构。具体操作:首先,使用一组专家网络替换原有的 Shared-Bottom 部分(专家网络由 MLP 组成),再加上一个门控制网络,这与 MoE 范式就很接近了。

c 为在 b 基础上的优化,b 是使用单门的网络结构,在这个基础上增加了多个门控网络。

就这样,一个 MMoE 模型就构成了。MMoE 模型为每一个任务配备了一个单独的门控制结构,并在不同的任务上自动分配不同的权重,用以自动捕获各个任务之间的相关性。

以上就是 Shared-Bottom 网络结构到 MMoE 模型整个演化过程。

小结与预告

这一讲我们介绍了多任务学习在深度推荐模型演化中的作用,多任务学习模型,通常将在底层保留一个应用于特定领域的共享的表征学习训练层。

而共享隐向量表征对于各个任务的学习会有两种影响:

  • 一种是共享性,通过将共享隐向量表征作为模型输入,各模型能够获取领域相关信息;

  • 另一种是约束性,共享隐向量表征是由各个任务同时反馈训练出来的结果,使得单个任务的偏差样本得到过滤和抑制,从而降低了拟合风险,大大提升了泛化性。

由此可见,多任务之间的融合是对立统一的结果。

道德经中“和其光,同其尘”,指的就是融合到一起的极致和谐的状态。

在多任务的融合中,我们同样需要合理区分各个场景,并在该场景合理使用范式,使任务之间能够相互配合,达到统一的状态。

下一讲,我们将继续介绍深度推荐模型新的演化方向,敬请期待 ~

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com