美文网首页
Adaboost算法理解

Adaboost算法理解

作者: thqby | 来源:发表于2020-10-30 14:12 被阅读0次

1、Adaboost作为一种集成学习方法,核心思想是经过多轮迭代,对分类器的权重参数每次迭代进行修正,然后集成得到最优解;

2、修正的参数有两个:迭代器的权重、样本自身的权重,权重的大小根据每轮迭代中的误分率自我调节

3、弱分类器的权重

     假设我们的训练集样本是:T={(x_{1} ,y_{1} ),(x_{2} ,y_{2} ),...(x_{m} ,y_{m} )}

      训练集的在第k个弱学习器的输出权重为: D(k)=(w_{k1} ,w_{k2} ,...w_{km} );w_{ki} =\frac{1}{m} ;i=1,2...m

      这里假设我们是二元分类问题,输出为{-1,1},则第k个弱分类器G_{k} (x)在训练集上的加权误差率为:

      e_{k}  = p(G_{k}(x_{i} )\neq y_{i}  ) = \sum_{i=1}^mw_{ki} I(G_{k}(x_{i} )\neq y_{i} )

     接着我们看弱学习器权重系数,对于二元分类问题,第k个弱分类器G_{k}(x) 的权重系数为:\alpha _{k} = \frac{1}{2} \log_e \frac{1-e_{k} }{e_{k} }

        从上述式子可以看到弱分类器的误差率越大,它的权重系数越小;

4、样本的权重:

        如何更新样本权重:假设第k个弱分类器的样本权重系数为:D(k)=(w_{k1}, w_{k2}...w_{km}),则对应第k+1个弱分类器的样本集权重系数          为:w_{k+1,i}  = \frac{w_{ki} }{Z_{K} } exp(-\alpha _{k} y_{i} G_{k}(x_{i} ) ),这里Z_{K} 是归一化因子。

        从上述式子可以看到 y_{i} 和G_{k}(x_{i})的值越相近,它们的乘积越大,x_{i} 的权重系数w_{k+1,i}越小。换句话说,对于分对的样本,给与的

        权重越小,对于分错的样本,给与的权重越大;

5、错误率和弱分类器的权重、样本的权重之间的关系

      本次迭代的分类错误率\alpha _{k}越大,整个弱分类器的权重将会越小,下次迭代的弱分类器所使用的分类错误的样本的权重越大;

相关文章

  • 提升方法

    提升方法 提升方法 AdaBoost 算法 AdaBoost算法的训练误差分析 AdaBoost算法的解释 提升树...

  • 第8章 Adaboost算法

    内容 一、Adaboost简介 二、Adaboost算法过程 三、Adaboost算法的训练误差分析 四、Adab...

  • 集成算法整理

    一.AdaBoost的算法 在学习adaboost算法前先要弄清楚前向分布算法,因为AdaBoost是前向分布加法...

  • 集成学习(Ensemble learning)

    摘要:本文是理解adaboost算法与xgboost算法的前奏篇,主要介绍集成学习(Ensemble learni...

  • Adaboost算法简介

    Adaboost算法 Adaboost算法是一种有监督的学习方法,是基于Adaboost算法的分类器把若干个分类器...

  • AdaBoost(Adaptive Boosting)

    AdaBoost 作为一种经典的提升方法,可以从不同维度去分析理解它。 算法释义 AdaBoost 作为一种提升方...

  • Adaboost算法理解

    1、Adaboost作为一种集成学习方法,核心思想是经过多轮迭代,对分类器的权重参数每次迭代进行修正,然后集成得到...

  • 4. AdaBoost 自适应推进

    1.名词解释 Boost(推进),adaboost(adapt boost)自适应推进算法:Adaboost算法是...

  • GBDT集成算法(梯度提升树)

    一、算法思想 GBDT是集成学习Boosting算法中的一种,它与Adaboost相比,Adaboost算法利用...

  • 04 集成学习 - Boosting - AdaBoost算法构

    03 集成学习 - Boosting - AdaBoost算法原理 十、AdaBoost算法构建 上一章最后说明了...

网友评论

      本文标题:Adaboost算法理解

      本文链接:https://www.haomeiwen.com/subject/ttzrvktx.html