繁体   English   中英

预处理螺旋数据集以用于逻辑回归

[英]Pre Processing spiral dataset to use for Logistic Regression

所以我需要对一个螺旋数据集进行分类。 我一直在试验一堆算法,比如 KNN、Kernel SVM 等。我想尝试使用特征工程、预处理等来提高逻辑回归的性能。

我也在使用 scikit 学习做所有的分类。

我完全理解逻辑回归不是解决此类问题的正确算法。 这更像是预处理和其他特征工程/提取方法的学习练习,以了解我可以在多大程度上改进此特定模型。

这是我将用于分类的示例数据集。 关于如何操作数据集以在逻辑回归算法中使用的任何建议都会有所帮助。

示例数据集

我也有多个螺旋的数据集。 一些数据集有 2 个类或有时多达 5 个。这意味着多达 5 个螺旋。

由于数据似乎不是线性可分的,您可以尝试使用支持向量分类中常用的 Kernel Trick 方法。 核函数接受原始低维空间中的输入,并返回高维空间中变换向量的点积。 这意味着变换向量 ϕ(x) 只是相应低维向量 x 中坐标的某个函数。

Logistic 回归通常用作线性分类器,即将一类样本与另一类样本分开的决策边界是线性(直线),但它也可用于非线性决策边界。

在 SVC 中使用内核技巧也是一个不错的选择,因为它将较低维度的数据映射到较高维度,使其线性可分。

例子:

例子

在上面的例子中,数据在较低维度上不是线性可分的,但是在应用变换 ϕ(x) = x² 并将第二个维度添加到特征后,我们得到了右侧图变得线性可分。

您可以通过创建用于应用逻辑回归的新功能来开始转换数据。 还可以尝试使用内核技巧的 SVC(支持向量分类器)。 对于 SVC,您不必明确地将数据转换为更高维度。

很少有非常适合学习的资源是

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM