您当前的位置: 首页 > 

ZhangJiQun&MXP

暂无认证

  • 2浏览

    0关注

    1187博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

LightGBM详解

ZhangJiQun&MXP 发布时间:2022-08-31 22:19:51 ,浏览量:2

GBM(Grandient Boosting Machine)算法

GBM(Gradient Boosting Machine)算法是Boosting(提升)算法的一种。主要思想是,串行地生成多个弱学习器,每个弱学习器的目标是拟合先前累加模型的损失函数的负梯度, 使加上该弱学习器后的累积模型损失往负梯度的方向减少。 且它用不同的权重将基学习器进行线性组合,使表现优秀的学习器得到重用。 最常用的基学习器为树模型。

Gradient Boosting 还可以将其理解为函数空间上的梯度下降。我们比较熟悉的梯度下降通常是值在参数空间上的梯度下降(如训练神经网络,每轮迭代中计算当前损失关于参数的梯度,对参数进行更新)。

而在 Gradient Boosting 中,每轮迭代生成一个弱学习器,这个弱学习器拟合损失函数关于之前累积模型的梯度,然后将这个弱学习器加入累积模型中,逐渐降低累积模型的损失。即参数空间的梯度下降利用梯度信息调整参数,从而降低损失,而函数空间的梯度下降利用梯度,拟合一个新的函数,从而降低损失。

LightGBM
关注
打赏
1665659684
查看更多评论
立即登录/注册

微信扫码登录

0.1026s