繁体   English   中英

支持向量回归如何工作?

[英]How Support Vector Regression works?

我正在尝试了解SVR模型。
为此,我查看了 SVM,这对我来说很清楚。 但是关于SVR并没有太多的解释。 第一个问题是为什么它被称为支持向量回归或者我们如何使用vectors来预测数值?
另外我不明白一些参数,例如epsilongamma 它们如何影响预测结果?

SVM 从您的特征中学习所谓的决策函数,例如来自正类的特征产生正实数,来自负类的特征产生负数(至少大部分时间,取决于您的数据)。

对于两个特征,您可以在 2D 平面中对其进行可视化。 该函数为平面中的每个点分配一个实际值,该值可以用颜色表示。 此图将值显示为不同的蓝色。

导致零的特征值形成所谓的决策边界

这个函数本身有两种参数:

  • 内核相关参数。 在您的径向基函数的情况下,这些参数是epsilongamma ,您在学习之前设置。
  • 以及在学习过程中确定的所谓支持向量。 支持向量只是决策函数的参数

学习只不过是确定好的支持向量(参数!)。

在这个二维示例视频中,颜色不显示实际的函数值,而只显示符号。 您可以看到gamma如何影响决策函数的平滑度。

回答你的问题:

SVR 构建了这样一个函数,但目标不同。 该函数不会尝试将正面结果分配给您的正面示例,将负面结果分配给负面示例。

相反,该函数旨在逼近给定的数字结果。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM