それでは詳細説明です。出力 x1 と x2 を持つ 2 つのレイヤーを持つ keras 機能モデルがあります。
x1 = Dense(1,activation='relu')(prev_inp1)
x2 = Dense(2,activation='relu')(prev_inp2)
これらのx1とx2を使用し、それらをマージ/追加して、添付の画像のように加重損失関数を作成する必要があります. 「同じ損失」を両方のブランチに伝播します。アルファは反復に応じて変化する柔軟性があります
それでは詳細説明です。出力 x1 と x2 を持つ 2 つのレイヤーを持つ keras 機能モデルがあります。
x1 = Dense(1,activation='relu')(prev_inp1)
x2 = Dense(2,activation='relu')(prev_inp2)
これらのx1とx2を使用し、それらをマージ/追加して、添付の画像のように加重損失関数を作成する必要があります. 「同じ損失」を両方のブランチに伝播します。アルファは反復に応じて変化する柔軟性があります