美文网首页
Day 680:机器学习笔记(9)

Day 680:机器学习笔记(9)

作者: kafkaliu | 来源:发表于2018-12-07 13:35 被阅读1次

宽容的支持向量回归

SVR是一种回归模型,函数模型也是线性函数,而目标函数以及优化算法和线性回归有很大的不同。

SVR在线性函数中加了间隔带,间隔带内的样本不计算损失,然后再通过最小化间隔带的宽度和总损失来达到最优化。

SVR和SVM的最大不同是,它不是为了将样本分开,而是希望尽可能将样本都框在线性函数上(或者说超平面)。

相关文章

网友评论

      本文标题:Day 680:机器学习笔记(9)

      本文链接:https://www.haomeiwen.com/subject/gwlthqtx.html