【集成学习系列教程3】GBDT分类算法原理及sklearn应用
1.5 GBDT二分类算法1.5.1 概述前面我们介绍了AdaBoost的基本原理,并举了几个实例对AdaBoost的使用做了一些演示。简单来说,AdaBoost的大体思想就是:根据每个弱学习器的预测误差为每个弱学习器赋予不同的权重,并以上一个弱学习器的权重为依据更新数据集样本分布的权重(尤其是不断加大上一轮弱学习器预测错误的样本的权重),通过不断循环这一过程,最终得到一个在所有样本上均有较高预测准确率的强学习器,实现了串行提升整体拟合效果的目的。而Boosting系列算法中还有另一个非常具有代表性的算