您的位置:首页 > 教育 > 锐评 > 网络营销的定义与特点_新疆网络运营_武汉seo技术_优化关键词推广

网络营销的定义与特点_新疆网络运营_武汉seo技术_优化关键词推广

2025/4/19 7:33:06 来源:https://blog.csdn.net/yin2567588841/article/details/147282805  浏览:    关键词:网络营销的定义与特点_新疆网络运营_武汉seo技术_优化关键词推广
网络营销的定义与特点_新疆网络运营_武汉seo技术_优化关键词推广

字节推荐算法

一、实习项目:多任务模型中的每个任务都是做什么?怎么确定每个loss的权重

这个根据实际情况来吧。如果实习时候用了moe,就可能被问到。
loss权重的话,直接根据任务的重要性吧。。。

二、特征重要性怎么判断的?

2.1. 基于树模型的方法(Model-based Methods)

在使用树模型(如 XGBoost、LightGBM、CatBoost)时,通常有多种方式可以计算 feature_importance_

2.1.1. Gain(信息增益)

  • 定义:每个特征在树结构中带来的信息增益(或损失函数的减少量)之和。
  • 特点:反映了特征对模型性能提升的“贡献度”。
  • 优点:精度较高,考虑了每次分裂的效果。
  • 劣势:容易偏向使用频率较低但效果突出的特征。

2.1.2. Split(或 Weight / Frequency)

  • 定义:每个特征被用作分裂点的次数。
  • 特点:反映了特征在树中“被使用的频率”。
  • 优点:实现简单,速度快。
  • 劣势:不考虑每次使用带来的好处(信息增益大小),可能高估某些无效但频繁使用的特征。

2.1.2. Cover(覆盖度)

  • 定义:使用该特征进行分裂的样本权重的总和(即覆盖的样本量)。
  • 特点:用于衡量特征使用时影响的样本规模。
  • 优点:结合了使用频率和样本量。
  • 劣势:对结果的解释性不如 Gain 明确。

2.2. 基于模型不确定性的分析

2.2.1. SHAP (SHapley Additive exPlanations)

  • 利用博弈论中 Shapley Value 分析每个特征对模型输出的贡献,支持大多数模型(树模型、神经网络、线性模型)

2.2.2. LIME (Local Interpretable Model-agnostic Explanations)

  • 基于局部线性模型的解释方法,对每个预测样本提供局部特征重要性

2.3. Permutation Importance(置换重要性)

  • 打乱某一特征,看模型性能下降多少(需要做很多次,求平均)

2.4. 消融实验

  • 删除某一特征,观察模型性能的下降程度

2.5. 基于回归模型系数的方法

  • 逻辑回归、线性回归中的系数大小表示特征重要性。简单讲就是y = wx+b的w。

三、谈谈推荐模型中的SENet(Squeeze-and-Excitation Networks)

SENet本身并不直接进行特征选择(即不删除不重要的特征),而是通过重新标定特征的重要性来间接影响模型的学习过程。但是其实我们可以将SENet的的门控参数当作特征重要度用
SENet的通道注意力思想被引入到多特征交互建模中,动态地学习不同特征的重要性。

3.1. SENet 结构模块

3.1.1. Squeeze(压缩)

对每个通道(对应推荐系统中的每个嵌入向量)做全局平均池化,提取通道级的全局信息。

  • 输入维度:(batch_size, num_fields, embedding_dim)
  • 输出维度:(batch_size, embedding_dim)

3.1.2. Excitation(激励)

通过一个两层的全连接网络(MLP)建模特征之间的关系,输出每个特征维度的权重。

  • 通常包含 ReLU 激活 + Sigmoid
  • 可视为一个门控机制,学习特征维度的重要性

3.1.3. Scale(缩放)

将激励模块生成的权重乘回原始特征,实现特征重标定。

3.2. 在推荐模型中的应用

SENet是一个很方便的模块,即插即用。推荐系统中的输入通常是多个类别特征的 embedding(嵌入向量),SENet 可以作用于这些向量,对不同特征分配动态的权重。

import torch  
import torch.nn as nn  
import torch.nn.functional as F  class SEBlock(nn.Module):  def __init__(self, num_channels, reduction_ratio=4):  super(SEBlock, self).__init__()  self.avg_pool = nn.AdaptiveAvgPool1d(1)  # 对于1D特征(如嵌入向量)  self.fc = nn.Sequential(  nn.Linear(num_channels, num_channels // reduction_ratio, bias=False),  nn.ReLU(inplace=True),  nn.Linear(num_channels // reduction_ratio, num_channels, bias=False),  nn.Sigmoid()  )  def forward(self, x_input):  b, f, size = x_input.size()  y = self.avg_pool(x_input).view(b, f)  gate = self.fc(y).view(b, f, 1)  return x_input * gate

四、特征共线性无法计算重要度怎么处理?

特征共线性 指的是多个特征之间存在高度相关性,

  • 这种冗余关系会使得模型在估计每个特征贡献时,共线特征会分摊重要性,使它们看起来都不重要。
  • 但特征共线性问题其实只是对 线性模型(如线性回归、逻辑回归)会产生影响。

4.1. 降低共线性

  • 删除冗余特征
  • 主成分分析(PCA):通过 PCA 将共线特征压缩成无关主成分,再做重要性分析
  • 加入正则化

4.2. 选择对特征共线性不敏感的树模型或者其他的特征重要性检测方法

五、负样本不均衡怎么处理?负采样后怎么保证预估值正常?

在推荐系统中正负样本极度不均衡 是常见问题:

  • 正样本(如点击、购买)远少于负样本(未点击、未购买)不处理会导致模型偏向负类,召回率低;但直接负采样可能影响模型输出概率的解释性

5.1. 如何保证负采样后的预估值正常?

方法一:调整 loss 中的 sample weight

  • 给每个样本赋予一个权重,权重反映它在真实分布中的代表性
# 例如真实负样本比例为 99%,采样比例为 10%
# 则负样本需要乘以一个调整系数 alpha ≈ 99 / 10
sample_weight = np.where(y == 1, 1.0, alpha)
model.fit(X, y, sample_weight=sample_weight)

方法二:手动调整输出概率

p =* r / [* r + (1 -) * (1 - r') / (1 - r) ]
  • p̂:采样后训练输出的概率
  • r:采样前的正负样本比
  • r’:正负样本比
  • P⁺:真实正样本概率

六、199. 二叉树的右视图

在这里插入图片描述

  • 代码:这道题,会写层序遍历,那么就很简单了
class Solution:def rightSideView(self, root: Optional[TreeNode]) -> List[int]:'''层序遍历取每层的第一个'''if not root: return []res = []queue = collections.deque()queue.append(root)while queue:tmp_res = []for _ in range(len(queue)):node = queue.popleft()tmp_res.append(node.val)if node.left:queue.append(node.left)if node.right:queue.append(node.right)res.append(tmp_res[-1])return res

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com