![](/img/trans.png)
[英]why categorical cross entropy loss function in training unet model for multiclass semantic segmentation is very high?
[英]Loss function and data format for training a ''categorical input' to 'categorical output' model?
我正在尝试训练用于自动驾驶的 model 将来自前置摄像头的输入转换为鸟瞰图像。
输入和 output 都是形状为(96, 144)的分割掩码,其中每个像素的范围从0 到 12 (每个数字代表不同的类别)。
现在我的问题是我应该如何预处理我的数据以及我应该将哪个损失 function 用于 model(我正在尝试使用全卷积网络)。
我尝试使用 keras 的 to_categorical 实用程序将输入和输出转换为形状(96, 144, 13),因此每个通道都有代表特定类别掩码的 0 和 1。 我在最后一层使用了binary_crossentropy
和sigmoid
激活,model 似乎在学习并且损失开始减少。
但我仍然不确定这是否是正确的方法,或者是否有更好的方法。
应该是什么:
我找到了解决方案,在最后一层使用带有 softmax 激活的分类交叉熵。 使用问题中指定的相同数据格式。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.