Faster-RCNN の RPN のマルチタスク損失関数 (L) で、分類損失 (l_cls) におけるポジティブ サンプルとネガティブ サンプルの寄与を差別的にスケーリングしようとしています。
私の知る限り、Caffe でこれを行う簡単な方法は、'InfoGainLossLayer' を使用し、さまざまなスケールを含む infoGainMatrix(H) を渡すことです。残念ながら、私の知る限り、infoGainMatrix(H) はその場で計算して InfoGainLossLayer に渡すことはできません。(参照)。H を動的に計算したいと思います。
誰かがこれを回避する方法を説明できれば素晴らしいでしょう。