![](/img/trans.png)
[英]AttributeError: 'Embedding' object has no attribute 'get_shape' with TensorFlow backend
[英]Keras custom loss function error: 'AttributeError: 'function' object has no attribute 'get_shape'
我必须编写自己的自定义丢失函数,除了y_true
和y_pred
参数之外,还可以使用不同的输入。 在阅读了一些解决方法之后,我决定使用内部函数,如下所示:
from keras import backend as K
lambda_prn_regr = 0.6
lambda_prn_vis = 0.2
lambda_prn_class = 0.2
epsilon = 1e-4
# Person loss
def prn_loss_cls(y_true, y_pred):
def prn_loss_cls_fixed_num(y_true, y_pred):
# lambda * b_ce
return lambda_prn_class * K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)
return prn_loss_cls_fixed_num
# Regression loss
def prn_loss_regr(num_joints):
def prn_loss_regr_fixed_num(y_true, y_pred):
# lambda * sum(vis * (pose_pred - pose_true)^2) / sum(vis)
return lambda_prn_regr * K.sum(y_true[:, :, :, :2*num_joints] * K.square(y_pred - y_true[:, :, :, 2*num_joints:])) / K.sum(y_true[:, :, :, :2*num_joints])
return prn_loss_regr_fixed_num
# Visibility Loss
def prn_loss_vis(y_true, y_pred):
def prn_loss_regr_fixed_num(y_true, y_pred):
return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)
return prn_loss_regr_fixed_num
三种不同的损失函数:每个函数都有权重,一个需要整数参数。
但我得到了AttributeError: 'function' object has no attribute 'get_shape'
在执行model.compile
函数时AttributeError: 'function' object has no attribute 'get_shape'
错误。 整个错误输出如下:
Traceback (most recent call last):
File "train_mppn.py", line 97, in <module>
model_prn.compile(optimizer=optimizer, loss=[losses.prn_loss_cls, losses.prn_loss_regr(C.num_joints), losses.prn_loss_vis(C.num_joints)])
File "/usr/local/lib/python2.7/dist-packages/keras/engine/training.py", line 899, in compile
sample_weight, mask)
File "/usr/local/lib/python2.7/dist-packages/keras/engine/training.py", line 441, in weighted
ndim = K.ndim(score_array)
File "/usr/local/lib/python2.7/dist-packages/keras/backend/tensorflow_backend.py", line 439, in ndim
dims = x.get_shape()._dims
AttributeError: 'function' object has no attribute 'get_shape'
编译部分:
model.compile(optimizer=optimizer, loss=[losses.prn_loss_cls, losses.prn_loss_regr(num_joints), losses.prn_loss_vis])
我找不到问题的根源。
您传递的函数不返回值,它们返回函数。
可以理解的是,你在num_joints
情况下这样做(并且你实际上正在调用该函数),但在其他情况下它只是奇怪,特别是因为你没有在任何地方调用它们来返回内部函数。
建议:
# Person loss
def prn_loss_cls(y_true, y_pred):
return lambda_prn_class * K.mean(K.binary_crossentropy(y_true,y_pred), axis=-1)
# Visibility Loss
def prn_loss_vis(y_true, y_pred):
return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)
如果我理解正确,prn_loss_cls,prn_loss_regr和prn_loss_vis是仿函数,即返回函数的函数。 并且您希望将返回的函数用作损失函数。 因此,您需要调用这些函子,而不仅仅是将它们链接到损失,例如
model.compile(optimizer=optimizer, loss=[losses.prn_loss_cls(), losses.prn_loss_regr(num_joints), losses.prn_loss_vis()]
希望这工作:)
如果在外部函数中不包含y_true和y_pred,则只应在外部包含所需的变量,并且仅对内部函数使用y_true和y_pred。 即它们应定义为:
# Person loss
def prn_loss_cls():
def prn_loss_cls_fixed_num(y_true, y_pred):
# lambda * b_ce
return lambda_prn_class * K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)
return prn_loss_cls_fixed_num
def prn_loss_vis():
def prn_loss_regr_fixed_num(y_true, y_pred):
return lambda_prn_vis * K.mean(K.square(y_pred - y_true), axis=-1)
return prn_loss_regr_fixed_num
回归损失很好。 然后你应该能够编译你的模型
model_prn.compile(optimizer=optimizer, loss=[losses.prn_loss_cls(), losses.prn_loss_regr(C.num_joints), losses.prn_loss_vis()])
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.