4

私はカフェ実験を実行しようとしています.Train.prototxtで次の損失層を使用しています.

layer {
  name: "loss"
  type: "SoftmaxWithLoss"
  bottom: "ip2"
  bottom: "label"
  include {
    phase: TRAIN
  }
}

トレーニングが開始されると、次の構成が表示されます。

I0923 21:19:13.101313 26423 net.cpp:410] 損失 <- ip2
I0923 21:19:13.101323 26423 net.cpp:410] 損失 <- ラベル
I0923 21:19:13.101339 26423 net.cpp:368] 損失 -> (自動)

top損失レイヤーにパラメーターを指定していません。
ここで、automatic(loss -> (automatic)) とは正確には何を意味するのでしょうか?

前もって感謝します!

4

1 に答える 1

8

Loss レイヤーを含む Caffe レイヤーは、計算の出力として Blob (4 次元配列) を生成します。パラメータでBlob 名を設定しない場合top、対応する Blob がネットの「出力」に追加されます。

これは、このNet::forward()メソッドを呼び出すと、Blob のリスト、つまり、別のレイヤーの入力として制限されていない Blob のリストが返されることを意味します。

Caffe トレーニング ツールを呼び出すと、このような Blob を自動的に表示して選別します。このようにして、トレーニング中に損失または精度の値を追跡できます。

于 2015-09-23T18:31:28.393 に答える