[英]performing K-fold Cross Validation with scoring = 'f1 or Recall or Precision' for multi-class problem
[英]Stratified K-Fold For Multi-Class Object Detection?
我上传了一个虚拟数据集,链接在这里。 df.head()
:
它总共有4 个类和df.object.value_counts()
:
human 23
car 13
cat 5
dog 3
我想在多类对象检测数据集上正确地进行K-Fold
验证拆分。
为了实现正确的 k 折验证拆分,我考虑了object counts
和bounding box
的数量。 据我了解, K-fold
拆分策略主要取决于数据集(元信息)。 但是现在有了这些数据集,我已经尝试了如下:
skf = StratifiedKFold(n_splits=3, shuffle=True, random_state=101)
df_folds = main_df[['image_id']].copy()
df_folds.loc[:, 'bbox_count'] = 1
df_folds = df_folds.groupby('image_id').count()
df_folds.loc[:, 'object_count'] = main_df.groupby('image_id')['object'].nunique()
df_folds.loc[:, 'stratify_group'] = np.char.add(
df_folds['object_count'].values.astype(str),
df_folds['bbox_count'].apply(lambda x: f'_{x // 15}').values.astype(str)
)
df_folds.loc[:, 'fold'] = 0
for fold_number, (train_index, val_index) in enumerate(skf.split(X=df_folds.index, y=df_folds['stratify_group'])):
df_folds.loc[df_folds.iloc[val_index].index, 'fold'] = fold_number
拆分后,我检查了它是否正常工作。 到目前为止似乎还可以。
所有的折叠都包含分层的k-fold
样本, len(df_folds[df_folds['fold'] == fold_number].index)
并且彼此没有交集, set(A).intersection(B)
其中A
和B
是索引值 ( image_id
) 的两倍。 但问题似乎是:
Fold 0 has total: 18 + 2 + 3 = 23 bbox
Fold 1 has total: 2 + 11 = 13 bbox
Fold 2 has total: 5 + 3 = 8 bbox
但是,我无法确定这是否是此类任务的正确方法。 我想要一些建议。 上面的方法可以吗? 或任何问题? 或者有一些更好的方法! 任何类型的建议将不胜感激。 谢谢。
在创建交叉验证拆分时,我们关心的是创建折叠,这些折叠对数据中遇到的各种“案例”具有良好的分布。
在您的情况下,您决定根据汽车的数量和边界框的数量进行折叠,这是一个不错但有限的选择。 因此,如果您可以使用数据/元数据识别特定情况,则可以尝试使用它创建更智能的折叠。
最明显的选择是平衡折叠中的对象类型(类),但您可以更进一步。
这是主要思想,假设您的图像主要在法国遇到汽车,而其他汽车主要在美国遇到,它可以用来创建良好的折叠,每个折叠中都有平衡数量的法国和美国汽车。 天气条件等也可以这样做。因此,每个折叠都将包含可供学习的代表性数据,以便您的网络不会对您的任务产生偏见。 因此,您的模型将对数据中此类潜在的现实生活变化更加稳健。
那么,您能否在交叉验证策略中添加一些元数据以创建更好的简历? 如果不是这种情况,您能否使用数据集的 x、y、w、h 列获取有关潜在极端情况的信息?
然后,您应该尝试在样本方面进行平衡的折叠,以便在相同的样本量上评估您的分数,这将减少方差并在最后提供更好的评估。
您可以直接使用 StratifiedKFold() 或 StratifiedShuffleSplit() 使用基于某些分类列的分层抽样来拆分数据集。
虚拟数据:
import pandas as pd
import numpy as np
np.random.seed(43)
df = pd.DataFrame({'ID': (1,1,2,2,3,3),
'Object': ('bus', 'car', 'bus', 'bus', 'bus', 'car'),
'X' : np.random.randint(0, 10, 6),
'Y' : np.random.randn(6)
})
df
使用 StratifiedKFold()
from sklearn.model_selection import StratifiedKFold
skf = StratifiedKFold(n_splits=2)
for train_index, test_index in skf.split(df, df["Object"]):
strat_train_set_1 = df.loc[test_index]
strat_test_set_1 = df.loc[test_index]
print('train_set :', strat_train_set_1, '\n' , 'test_set :', strat_test_set_1)
同样,如果你选择使用 StratifiedShuffleSplit(),你可以有
from sklearn.model_selection import StratifiedShuffleSplit
sss = StratifiedShuffleSplit(n_splits=1, test_size=0.2, random_state=42)
# n_splits = Number of re-shuffling & splitting iterations.
for train_index, test_index in sss.split(df, df["Object"]):
# split(X, y[, groups]) Generates indices to split data into training and test set.
strat_train_set = df.loc[train_index]
strat_test_set = df.loc[test_index]
print('train_set :', strat_train_set, '\n' , 'test_set :', strat_test_set)
我会简单地使用KFold
的 scikit-learn 的KFold
方法来做到这一点
from numpy import array
from sklearn.model_selection import KFold
data = array([0.1, 0.2, 0.3, 0.4, 0.5, 0.6])
kfold = KFold(3, True, 1)
for train, test in kfold.split(data):
print('train: %s, test: %s' % (data[train], data[test]))
请看看这是否有帮助
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.