美文网首页
Bagging、Boosting、Stacking小结

Bagging、Boosting、Stacking小结

作者: 华灯初上月影重 | 来源:发表于2020-03-04 15:51 被阅读0次

Bagging :独立的集成多个模型,每个模型有一定的差异,最终综合有差异的模型的结果,获得学习的最终的结果;
Boosting(增强集成学习):集成多个模型,每个模型都在尝试增强(Boosting)整体的效果;
Stacking(堆叠):集成 k 个模型,得到 k 个预测结果,将 k 个预测结果再传给一个新的算法,得到的结果为集成系统最终的预测结果;

Bagging和Boosting的区别:

1)样本选择上:

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

2)样例权重:

Bagging:使用均匀取样,每个样例的权重相等

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3)预测函数:

Bagging:所有预测函数的权重相等。

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4)并行计算:

Bagging:各个预测函数可以并行生成

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

5)bagging是减少variance,而boosting是减少bias

相关文章

  • Bagging、Boosting、Stacking小结

    Bagging :独立的集成多个模型,每个模型有一定的差异,最终综合有差异的模型的结果,获得学习的最终的结果;Bo...

  • Ensemble

    集成学习(ensemble learning):Stacking,boosting,bagging(bootstr...

  • 机器学习-集成学习

    outline 集成学习 Boosting Bagging 随机森林 结合策略 Stacking 集成学习(ens...

  • 面试准备基础算法篇

    机器学习: 继承学习:bagging、boosting、stacking的区别 指标:准确率、召回率、f1、auc...

  • 集成学习--bagging、boosting、stacking

    集成学习(ensemble learning) 通过构建并结合多个学习器来完成学习任务。 如何产生“好而不同”的个...

  • Bagging vs Boosting vs Stacking

    Bagging用于减小方差。使用训练数据的不同随机子集(大小常等于训练数据,采用不放回的方式进行抽取)来训练每个b...

  • 集成学习方法(组合分类器)

    1. 引言   典型的集成学习方法有bagging, boosting以及随机森林,stacking也是一种集成学...

  • CV-模型集成

    集成学习方法 集成学习能够提高预测精度,常见的集成学习方法有stacking、bagging和boosting,同...

  • 机器学习-知识点汇总

    list: bagging和boosting的区别 决策树 Bagging和Boosting 概念及区别 1)样本...

  • 2019-05-09

    Bagging 提升 Boosting 推进

网友评论

      本文标题:Bagging、Boosting、Stacking小结

      本文链接:https://www.haomeiwen.com/subject/itxblhtx.html