1

ここの回答の1つにクロスエントロピーがあります: nolearn for multi-label classification、つまり:

# custom loss: multi label cross entropy
def multilabel_objective(predictions, targets):
    epsilon = np.float32(1.0e-6)
    one = np.float32(1.0)
    pred = T.clip(predictions, epsilon, one - epsilon)
    return -T.sum(targets * T.log(pred) + (one - targets) * T.log(one - pred), axis=1)

なぜこれが特にマルチラベルなのですか? 単変量 (単一クラス) 分類の対数損失によく似ています。これは、文献http://arxiv.org/pdf/1312.5419v3.pdfで見つけました。

4

0 に答える 0