繁体   English   中英

Keras自定义丢失函数错误:'AttributeError:'function'对象没有属性'get_shape'

[英]Keras custom loss function error: 'AttributeError: 'function' object has no attribute 'get_shape'

我必须编写自己的自定义丢失函数,除了y_truey_pred参数之外,还可以使用不同的输入。 在阅读了一些解决方法之后,我决定使用内部函数,如下所示:

from keras import backend as K

lambda_prn_regr = 0.6
lambda_prn_vis = 0.2
lambda_prn_class = 0.2

epsilon = 1e-4

# Person loss
def prn_loss_cls(y_true, y_pred):
    def prn_loss_cls_fixed_num(y_true, y_pred):
        # lambda * b_ce
        return lambda_prn_class * K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)
    return prn_loss_cls_fixed_num

# Regression loss
def prn_loss_regr(num_joints):
    def prn_loss_regr_fixed_num(y_true, y_pred):
        # lambda * sum(vis * (pose_pred - pose_true)^2) / sum(vis)
        return lambda_prn_regr * K.sum(y_true[:, :, :, :2*num_joints] * K.square(y_pred - y_true[:, :, :, 2*num_joints:])) / K.sum(y_true[:, :, :, :2*num_joints])
    return prn_loss_regr_fixed_num

# Visibility Loss
def prn_loss_vis(y_true, y_pred):
    def prn_loss_regr_fixed_num(y_true, y_pred):
        return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)
    return prn_loss_regr_fixed_num

三种不同的损失函数:每个函数都有权重,一个需要整数参数。

但我得到了AttributeError: 'function' object has no attribute 'get_shape'在执行model.compile函数时AttributeError: 'function' object has no attribute 'get_shape'错误。 整个错误输出如下:

Traceback (most recent call last):
  File "train_mppn.py", line 97, in <module>
    model_prn.compile(optimizer=optimizer, loss=[losses.prn_loss_cls, losses.prn_loss_regr(C.num_joints), losses.prn_loss_vis(C.num_joints)])
  File "/usr/local/lib/python2.7/dist-packages/keras/engine/training.py", line 899, in compile
    sample_weight, mask)
  File "/usr/local/lib/python2.7/dist-packages/keras/engine/training.py", line 441, in weighted
    ndim = K.ndim(score_array)
  File "/usr/local/lib/python2.7/dist-packages/keras/backend/tensorflow_backend.py", line 439, in ndim
    dims = x.get_shape()._dims
AttributeError: 'function' object has no attribute 'get_shape'

编译部分:

model.compile(optimizer=optimizer, loss=[losses.prn_loss_cls, losses.prn_loss_regr(num_joints), losses.prn_loss_vis])

我找不到问题的根源。

您传递的函数不返回值,它们返回函数。

可以理解的是,你在num_joints情况下这样做(并且你实际上正在调用该函数),但在其他情况下它只是奇怪,特别是因为你没有在任何地方调用它们来返回内部函数。

建议:

# Person loss
def prn_loss_cls(y_true, y_pred):
       return lambda_prn_class * K.mean(K.binary_crossentropy(y_true,y_pred), axis=-1)


# Visibility Loss
def prn_loss_vis(y_true, y_pred):
    return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)

如果我理解正确,prn_loss_cls,prn_loss_regr和prn_loss_vis是仿函数,即返回函数的函数。 并且您希望将返回的函数用作损失函数。 因此,您需要调用这些函子,而不仅仅是将它们链接到损失,例如

model.compile(optimizer=optimizer, loss=[losses.prn_loss_cls(), losses.prn_loss_regr(num_joints), losses.prn_loss_vis()]

希望这工作:)

如果在外部函数中不包含y_true和y_pred,则只应在外部包含所需的变量,并且仅对内部函数使用y_true和y_pred。 即它们应定义为:

# Person loss
def prn_loss_cls():
    def prn_loss_cls_fixed_num(y_true, y_pred):
        # lambda * b_ce
        return lambda_prn_class * K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)
    return prn_loss_cls_fixed_num

def prn_loss_vis():
    def prn_loss_regr_fixed_num(y_true, y_pred):
        return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)
    return prn_loss_regr_fixed_num

回归损失很好。 然后你应该能够编译你的模型

model_prn.compile(optimizer=optimizer, loss=[losses.prn_loss_cls(), losses.prn_loss_regr(C.num_joints), losses.prn_loss_vis()])

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM