宽容的支持向量回归
SVR是一种回归模型,函数模型也是线性函数,而目标函数以及优化算法和线性回归有很大的不同。
SVR在线性函数中加了间隔带,间隔带内的样本不计算损失,然后再通过最小化间隔带的宽度和总损失来达到最优化。
SVR和SVM的最大不同是,它不是为了将样本分开,而是希望尽可能将样本都框在线性函数上(或者说超平面)。

宽容的支持向量回归
SVR是一种回归模型,函数模型也是线性函数,而目标函数以及优化算法和线性回归有很大的不同。
SVR在线性函数中加了间隔带,间隔带内的样本不计算损失,然后再通过最小化间隔带的宽度和总损失来达到最优化。
SVR和SVM的最大不同是,它不是为了将样本分开,而是希望尽可能将样本都框在线性函数上(或者说超平面)。
本文标题:Day 680:机器学习笔记(9)
本文链接:https://www.haomeiwen.com/subject/gwlthqtx.html
网友评论