0

このエラーが発生し、インターネットで調べようとしましたが、何も明確になりませんでした。

Caffe を使用してネットをトレーニングし、約 82% の精度で成功しました。

今、私はこのコードを使って画像で試してみています:

python python/classify.py --model_def examples/imagenet/imagenet_deploy.prototxt --pretrained_model caffe_mycaffe_train_iter_10000.caffemodel --images_dim 64,64 data/mycaffe/testingset/cat1/113.png foo --mean_file data/mycaffe/mycaffe_train_mean.binaryproto

はい、私の画像は 64x64 です。

これらは私が得ている最後の行です:

I0610 15:33:44.868100 28657 net.cpp:194] conv3 は後方計算を必要としません。I0610 15:33:44.868110 28657 net.cpp:194] norm2 は後方計算を必要としません。I0610 15:33:44.868120 28657 net.cpp:194] pool2 は後方計算を必要としません。I0610 15:33:44.868130 28657 net.cpp:194] relu2 は後方計算を必要としません。I0610 15:33:44.868142 28657 net.cpp:194] conv2 は後方計算を必要としません。I0610 15:33:44.868152 28657 net.cpp:194] norm1 は後方計算を必要としません。I0610 15:33:44.868162 28657 net.cpp:194] pool1 は後方計算を必要としません。I0610 15:33:44.868173 28657 net.cpp:194] relu1 は後方計算を必要としません。I0610 15:33:44.868182 28657 net.cpp:194] conv1 は後方計算を必要としません。I0610 15:33:44.868192 28657 net.cpp:235] このネットワークは、出力 fc8_pascal I0610 15:33 を生成します。44.868214 28657 net.cpp:482] 学習率と重み減衰の収集。I0610 15:33:44.868238 28657 net.cpp:247] ネットワークの初期化が完了しました。I0610 15:33:44.868249 28657 net.cpp:248] データに必要なメモリ: 3136120 F0610 15:33:45.025965 28657 blob.cpp:458] チェックに失敗しました: ShapeEquals(proto) 形状の不一致 (reshape が設定されていません) * 失敗のスタック トレースを確認してください: * 中止されました (コア ダンプ)

--mean_file などを設定しないようにしましたが、私のショットは終わりました。

これは私の imagenet_deploy.prototxt で、デバッグのためにいくつかのパラメーターを変更しましたが、何も機能しませんでした。

name: "MyCaffe"
input: "data"
input_dim: 10
input_dim: 3
input_dim: 64
input_dim: 64
layer {
  name: "conv1"
  type: "Convolution"
  bottom: "data"
  top: "conv1"
  convolution_param {
    num_output: 64
    kernel_size: 11
    stride: 4
  }
}
layer {
  name: "relu1"
  type: "ReLU"
  bottom: "conv1"
  top: "conv1"
}
layer {
  name: "pool1"
  type: "Pooling"
  bottom: "conv1"
  top: "pool1"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "norm1"
  type: "LRN"
  bottom: "pool1"
  top: "norm1"
  lrn_param {
    local_size: 5
    alpha: 0.0001
    beta: 0.75
  }
}
layer {
  name: "conv2"
  type: "Convolution"
  bottom: "norm1"
  top: "conv2"
  convolution_param {
    num_output: 64 
    pad: 2
    kernel_size: 5
    group: 2
  }
}
layer {
  name: "relu2"
  type: "ReLU"
  bottom: "conv2"
  top: "conv2"
}
layer {
  name: "pool2"
  type: "Pooling"
  bottom: "conv2"
  top: "pool2"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "norm2"
  type: "LRN"
  bottom: "pool2"
  top: "norm2"
  lrn_param {
    local_size: 5
    alpha: 0.0001
    beta: 0.75
  }
}
layer {
  name: "conv3"
  type: "Convolution"
  bottom: "norm2"
  top: "conv3"
  convolution_param {
    num_output: 384
    pad: 1
    kernel_size: 3
  }
}
layer {
  name: "relu3"
  type: "ReLU"
  bottom: "conv3"
  top: "conv3"
}
layer {
  name: "conv4"
  type: "Convolution"
  bottom: "conv3"
  top: "conv4"
  convolution_param {
    num_output: 384
    pad: 1
    kernel_size: 3
    group: 2
  }
}
layer {
  name: "relu4"
  type: "ReLU"
  bottom: "conv4"
  top: "conv4"
}
layer {
  name: "conv5"
  type: "Convolution"
  bottom: "conv4"
  top: "conv5"
  convolution_param {
    num_output: 64
    pad: 1
    kernel_size: 3
    group: 2
  }
}
layer {
  name: "relu5"
  type: "ReLU"
  bottom: "conv5"
  top: "conv5"
}
layer {
  name: "pool5"
  type: "Pooling"
  bottom: "conv5"
  top: "pool5"
  pooling_param {
    pool: MAX
    kernel_size: 3
    stride: 2
  }
}
layer {
  name: "fc6"
  type: "InnerProduct"
  bottom: "pool5"
  top: "fc6"
  inner_product_param {
    num_output: 4096
  }
}
layer {
  name: "relu6"
  type: "ReLU"
  bottom: "fc6"
  top: "fc6"
}
layer {
  name: "drop6"
  type: "Dropout"
  bottom: "fc6"
  top: "fc6"
  dropout_param {
    dropout_ratio: 0.5
  }
}
layer {
  name: "fc7"
  type: "InnerProduct"
  bottom: "fc6"
  top: "fc7"
  inner_product_param {
    num_output: 4096
  }
}
layer {
  name: "relu7"
  type: "ReLU"
  bottom: "fc7"
  top: "fc7"
}
layer {
  name: "drop7"
  type: "Dropout"
  bottom: "fc7"
  top: "fc7"
  dropout_param {
    dropout_ratio: 0.5
  }
}
layer {
  name: "fc8_pascal"
  type: "InnerProduct"
  bottom: "fc7"
  top: "fc8_pascal"
  inner_product_param {
    num_output: 3
  }
}

誰でも私に手がかりを与えることができますか?どうもありがとうございました。


C++ と、 それらが提供する分類ビンでも同じことが起こります。

F0610 18:06:14.975601 7906 blob.cpp:455] チェックに失敗しました: ShapeEquals(proto) 形状の不一致 (reshape が設定されていません) * 失敗スタック トレースをチェック: * @ 0x7f0e3c50761c google::LogMessage::Fail() @ 0x7f0e3c507568 google:: LogMessage::SendToLog() @ 0x7f0e3c506f6a google::LogMessage::Flush() @ 0x7f0e3c509f01 google::LogMessageFatal::~LogMessageFatal() @ 0x7f0e3c964a80 caffe::Blob<>::FromProto() @ 0x7f0e3c89576e caffe::Net<> ::CopyTrainedLayersFrom() @ 0x7f0e3c8a10d2 caffe::Net<>::CopyTrainedLayersFrom() @ 0x406c32 Classifier::Classifier() @ 0x403d2b main @ 0x7f0e3b124ec5 (不明) @ 0x4041ce (不明) 中止 (コアダンプ)

4

3 に答える 3

4

同じエラーが発生しました。私の場合、最終層の出力パラメーターが正しくありませんでした。データセットを切り替えて、train.prototxt のクラス数を変更し、test.prototxt (または deploy.prototxt) で変更できませんでした。この間違いを修正すると、問題が解決しました。

于 2015-07-06T16:48:53.573 に答える
1

私の場合、ソルバー ファイルの 2 番目の畳み込み層のカーネルのサイズが、トレーニング ファイルのサイズと異なっていました。ソルバー ファイルのサイズを変更すると、問題が解決しました。

于 2015-09-02T09:19:09.917 に答える