您的位置:首页 > 健康 > 养生 > 万网企业邮箱_枸橼酸西地那非片功效效及作用_武汉建站公司_搜索引擎排名中国

万网企业邮箱_枸橼酸西地那非片功效效及作用_武汉建站公司_搜索引擎排名中国

2024/12/23 16:11:50 来源:https://blog.csdn.net/u013172930/article/details/143455502  浏览:    关键词:万网企业邮箱_枸橼酸西地那非片功效效及作用_武汉建站公司_搜索引擎排名中国
万网企业邮箱_枸橼酸西地那非片功效效及作用_武汉建站公司_搜索引擎排名中国

本公式来源于文章 “《GBDT 算法的原理推导》 11-13初始化模型 公式解析” , 拿出来写一下具体的化简过程。


对于对数损失下的GBDT初始预测值 f 0 ( x ) f_0(x) f0(x),应该是通过最大化对数似然得到一个基于对数几率的表达式。我们现在来详细推导这个公式。

1. 问题的定义

对于二分类问题,假设目标值 y i y_i yi 取值为 0 或 1。我们的目标是找到一个初始预测值 f 0 ( x ) f_0(x) f0(x),使得它最小化所有样本的对数损失。对于二分类任务,GBDT的初始化通常会选择预测输出为正类概率的对数几率(log odds)

2. 对数损失函数

对于一个样本 ( x i , y i ) (x_i, y_i) (xi,yi),对数损失函数定义为:

L ( y i , p ) = − [ y i log ⁡ p + ( 1 − y i ) log ⁡ ( 1 − p ) ] L(y_i, p) = - [y_i \log p + (1 - y_i) \log (1 - p)] L(yi,p)=[yilogp+(1yi)log(1p)]

其中 p p p 是预测的正类概率。在GBDT中,我们希望找到一个值 f 0 f_0 f0 作为初始预测值。对于二分类问题,模型输出的对数几率(log odds)与正类概率的关系为:

p = 1 1 + e − f 0 p = \frac{1}{1 + e^{-f_0}} p=1+ef01

因此, f 0 f_0 f0 可以被看作是模型输出的对数几率。

3. 目标函数

我们希望最小化所有样本的对数损失总和:

f 0 = arg ⁡ min ⁡ f ∑ i = 1 N L ( y i , p i ) = arg ⁡ min ⁡ f ∑ i = 1 N − [ y i log ⁡ p i + ( 1 − y i ) log ⁡ ( 1 − p i ) ] f_0 = \arg \min_{f} \sum_{i=1}^N L(y_i, p_i) = \arg \min_{f} \sum_{i=1}^N - \left[y_i \log p_i + (1 - y_i) \log (1 - p_i)\right] f0=argfmini=1NL(yi,pi)=argfmini=1N[yilogpi+(1yi)log(1pi)]

p i p_i pi f 0 f_0 f0 表示,即 p i = 1 1 + e − f 0 p_i = \frac{1}{1 + e^{-f_0}} pi=1+ef01,带入上式:

f 0 = arg ⁡ min ⁡ f ∑ i = 1 N − [ y i log ⁡ ( 1 1 + e − f 0 ) + ( 1 − y i ) log ⁡ ( 1 − 1 1 + e − f 0 ) ] f_0 = \arg \min_{f} \sum_{i=1}^N - \left[y_i \log \left(\frac{1}{1 + e^{-f_0}}\right) + (1 - y_i) \log \left(1 - \frac{1}{1 + e^{-f_0}}\right)\right] f0=argfmini=1N[yilog(1+ef01)+(1yi)log(11+ef01)]

4. 化简对数项

根据 log ⁡ ( 1 1 + e − f 0 ) = − log ⁡ ( 1 + e − f 0 ) \log \left(\frac{1}{1 + e^{-f_0}}\right) = -\log(1 + e^{-f_0}) log(1+ef01)=log(1+ef0) 1 − 1 1 + e − f 0 = e − f 0 1 + e − f 0 1 - \frac{1}{1 + e^{-f_0}} = \frac{e^{-f_0}}{1 + e^{-f_0}} 11+ef01=1+ef0ef0,我们可以将对数项展开为:

f 0 = arg ⁡ min ⁡ f ∑ i = 1 N − [ y i ( − log ⁡ ( 1 + e − f 0 ) ) + ( 1 − y i ) ( − f 0 − log ⁡ ( 1 + e − f 0 ) ) ] f_0 = \arg \min_{f} \sum_{i=1}^N - \left[y_i (-\log(1 + e^{-f_0})) + (1 - y_i) \left(-f_0 - \log(1 + e^{-f_0})\right)\right] f0=argfmini=1N[yi(log(1+ef0))+(1yi)(f0log(1+ef0))]

化简后得到:

f 0 = arg ⁡ min ⁡ f ∑ i = 1 N [ y i log ⁡ ( 1 + e − f 0 ) + ( 1 − y i ) ( f 0 + log ⁡ ( 1 + e − f 0 ) ) ] f_0 = \arg \min_{f} \sum_{i=1}^N \left[y_i \log(1 + e^{-f_0}) + (1 - y_i)(f_0 + \log(1 + e^{-f_0}))\right] f0=argfmini=1N[yilog(1+ef0)+(1yi)(f0+log(1+ef0))]

进一步整理,可以得到最优初始值的方程:

f 0 = log ⁡ ∑ i = 1 N y i N − ∑ i = 1 N y i f_0 = \log \frac{\sum_{i=1}^N y_i}{N - \sum_{i=1}^N y_i} f0=logNi=1Nyii=1Nyi

这表明,初始预测值 f 0 ( x ) f_0(x) f0(x) 是正类样本的对数几率(log odds)。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com