1

分類に使用されるニューラル ネットワークの作業モデルがあります。現時点では、クロスエントロピーを適用して、テスト結果 (モデル出力) と条件結果 (真の出力) の間の誤差を計算しています。このモデルはバイナリ分類に使用されますが、複数のクラスを処理できるように拡張されます。これまでのところ、エラーは MATLAB のクロス エントロピーを使用して計算されています。

err = sum( y.*log(h(x)) + (1-y).*log(1-h(x)) )

偽陰性よりも多くの偽陽性を分類または検出できるようにモデルを実行したいと考えています。すべてを指定できるいわゆる混同行列があることは知っていますが、これがどのように誤差計算に対応するのかわかりません。どんな提案でも大歓迎です:)

乾杯!

4

1 に答える 1

3

スカラー クラスの重みを導入することで、ポジティブ クラスをネガティブ クラスより高くまたは低く重み付けできます。以来

y .* log(h(x))

正のトレーニング サンプルの損失を表し、

(1 - y) .* log(1 - h(x))

負のトレーニング サンプルの損失です。

err = -sum(w .* y .* log(h(x)) + (1 - y) .* log(1 - h(x)))

の場合、正のトレーニング サンプルが負のトレーニング サンプルよりも重要になり、 の場合はw>1重要性が低くなりw<1ます。それに応じて導関数を変更してください。

于 2013-10-24T15:05:10.167 に答える