[英]Oversampling of image data for keras
我正在从事 Kaggle 比赛,并试图用 keras 解决多标签分类问题。
我的数据集高度不平衡。 我熟悉这个概念,并为简单的机器学习数据集做了它,但现在确定如何处理图像和 csv 数据。
有几个问题,但他们没有帮助我。
Class
No finding 25462
Aortic enlargement 5738
Cardiomegaly 4345
Pleural thickening 3866
Pulmonary fibrosis 3726
Nodule/Mass 2085
Pleural effusion 1970
Lung Opacity 1949
Other lesion 1771
Infiltration 997
ILD 792
Calcification 775
Consolidation 441
Atelectasis 229
Pneumothorax 185
我正在尝试进行过采样,但不知道如何处理它。 我有 15000 张png
图像和train.csv
数据集,如下所示:
image_id class_name class_id rad_id x_min y_min x_max y_max width height
0 50a418190bc3fb1ef1633bf9678929b3 No finding 14 R11 0.0 0.0 0.0 0.0 2332 2580
1 21a10246a5ec7af151081d0cd6d65dc9 No finding 14 R7 0.0 0.0 0.0 0.0 2954 3159
2 9a5094b2563a1ef3ff50dc5c7ff71345 Cardiomegaly 3 R10 691.0 1375.0 1653.0 1831.0 2080 2336
3 051132a778e61a86eb147c7c6f564dfe Aortic enlargement 0 R10 1264.0 743.0 1611.0 1019.0 2304 2880
4 063319de25ce7edb9b1c6b8881290140 No finding 14 R10 0.0 0.0 0.0 0.0 2540 3072
当我有图像和 csv 时,如何解决这个问题?
当我转换数据时,它看起来像:
Images Class
56 d106ec9b305178f3da060efe3191499a.png Nodule/Mass
38694 081d1700020b6bf0099f1e4d8aeec0f3.png Lung Opacity
50141 ff8ef73390f04480aba0be7810ef94cf.png No finding
233 253d35b7096d0957bd79cfb4b1c954e1.png No finding
2166 1951e0eba7c68aa1fbd6d723f19ee7c4.png Pleural thickening
我使用图像生成器
# Create a train generator
train_generator = train_dataGen.flow_from_dataframe(dataframe = train,
directory = 'my_directory',
x_col = 'Images',
y_col = 'Class',
class_mode = 'categorical',
# target_size = (256, 256),
batch_size = 32)
我尝试了一些愚蠢的方法,但显然没有用。
# Create an instance
oversample = SMOTE()
# Oversample
train_ovsm, valid_ovsm = oversample.fit_resample(train_ovsm, valid_ovsm)
给我一个错误:
ValueError: could not convert string to float: '954984f75efe6890cfa45d0784a3a1e6.png'
欣赏技巧和好的教程,到目前为止找不到任何东西。
我不确定这个答案是否让你满意,但这是我的想法。 如果我是你,我不会像你现在尝试的那样尝试平衡它。 IMO,这不是正确的方法。 您主要担心的是此VinBigData高度不平衡,您不确定如何正确解决它。
以下是所有人在本次比赛中为解决这个问题而采取的一些初步方法。
- External dataset
- Heavy and meaningful augmentation
- Modified the loss function
您需要做的是,从这些数据集中收集所有可能的外部样本,将它们组合起来并制作新的数据集。 这可能需要时间,但值得。
我们都知道增强是深度学习 model 训练的关键策略之一。 但是选择正确的增强是有意义的。 这里有一些演示。 主要的直觉是尽量不破坏敏感信息。 对此要小心。
您可以修改损失 function 以加权预测得分。 这是这个主题的详细解释。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.