GBM(Grandient Boosting Machine)算法
GBM(Gradient Boosting Machine)算法是Boosting(提升)算法的一种。主要思想是,串行地生成多个弱学习器,每个弱学习器的目标是拟合先前累加模型的损失函数的负梯度, 使加上该弱学习器后的累积模型损失往负梯度的方向减少。 且它用不同的权重将基学习器进行线性组合,使表现优秀的学习器得到重用。 最常用的基学习器为树模型。
Gradient Boosting 还可以将其理解为函数空间上的梯度下降。我们比较熟悉的梯度下降通常是值在参数空间上的梯度下降(如训练神经网络,每轮迭代中计算当前损失关于参数的梯度,对参数进行更新)。
而在 Gradient Boosting 中,每轮迭代生成一个弱学习器,这个弱学习器拟合损失函数关于之前累积模型的梯度,然后将这个弱学习器加入累积模型中,逐渐降低累积模型的损失。即参数空间的梯度下降利用梯度信息调整参数,从而降低损失,而函数空间的梯度下降利用梯度,拟合一个新的函数,从而降低损失。
LightGBM