1,135
社区成员
发帖
与我相关
我的任务
分享
为什么说Bagging可以减少弱分类器的方差,而Boosting 可以减少弱分类器的偏差?
Bagging就是再取样 (Bootstrap) 然后在每个样本上训练出来的模型取平均,所以是降低模型的variance. Bagging 比如Random Forest 这种先天并行的算法都有这个效果。
Boosting 则是迭代算法,每一次迭代都根据上一次迭代的预测结果对样本进行加权,所以随着迭代不断进行,误差会越来越小,所以模型的 bias 会不断降低。这种算法无法并行,如Adaptive Boosting.
原文链接:https://blog.csdn.net/weixin_44507034/article/details/109730355