![](/img/trans.png)
[英]How many images should be there in the training and testing phase? LibSVM
[英]How should I prepare positive images for HAAR training for hand detection?
我正在使用此數據集: http : //www.robots.ox.ac.uk/~vgg/data/hands/
但是,我只會使用面積大於4200平方像素的手,這只剩下621手。 我意識到這可能還不夠,如果需要,我會尋找更多圖像。 但是,所有圖像的注釋如下:
我有如下邊界框的坐標:
但是,邊界框未與x&y軸對齊。
我相信我必須從圖像中剪裁出來。 我有兩種方法可以做到這一點:
1)令xmin和xmax為邊界框的最小和最大x坐標。 而ymin和ymax是邊界框的最小和最大y坐標。 如果這樣做,我將得到:
(當然,沒有邊界框),背景的某些部分仍保留在上面。
2)我可以使用二進制遮罩“遮蔽”邊界框內的所有像素。如果這樣做,我圖像的大小仍將是xmin到xmax和ymin到ymax,但是我可以設置其余部分背景為白色。
有什么會更好? 我相信正面應該只包含感興趣的對象(在這種情況下為手),所以離開背景可能不對嗎? 但是,白色背景還可以嗎?
這里的主要問題是邊界框未對齊!
可以保留少量背景,但每個圖像中的背景會有所不同,因此不會作為分類器的一部分創建。
我建議做一個更大的負片來抵消背景,並且620張圖像就可以了。
您可能還想看看labelme http://labelme.csail.mit.edu/Release3.0/index.php
我在項目中使用了它,它們還向您展示了如何使用Amazon Turk獲取自己的數據集。 我認為您也許也可以使用他們的數據集。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.