問題タブ [conv-neural-network]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
1365 参照

deep-learning - Caffe の複数の事前学習済みネットワーク

複数の事前トレーニング済みネットワークから 1 つのネットワークにワイトをロードする簡単な方法 (たとえば、ネットワークには、両方の事前学習済みネットワークと同じ次元と名前を持つ層がいくつか含まれています。

NVidia DIGITS と Caffe を使用してこれを達成しようとしています。

編集:回答で確認されているように、DIGITSから直接行うことはできないと思いました。複数の事前学習済みネットワークを選択できるように DIGITS コードを変更する簡単な方法を提案できる人はいますか? コードを少し確認し、トレーニング スクリプトから始めるのがよいと思いましたが、私は Caffe についての深い知識がないため、これを達成するための最良/最速の方法が何であるかわかりません。 .

0 投票する
1 に答える
138 参照

python - 畳み込み層の出力は、すべての画像に対して全結合層を通過した後、1 に変わります。

theano を使用して CNN を構築しました。Convolution 層と Hidden 層のコードは次のとおりです。

私のニューラル ネットワークには 5 つの層があります。しかし、何が問題なのかを確認するために、他のすべての隠しレイヤーを取り除き、畳み込みレイヤーに接続されているレイヤーだけを残しました。畳み込み層の出力は問題ないことがわかりましたが、完全に接続された層を通過した後は次のようになりました。

ここで、2,5000 は隠れ層の出力行列の形状です。ネットワークの実装は次のとおりです。

非表示層を通過した後、畳み込み層の出力がすべて 1 に変わる原因は何ですか?

0 投票する
2 に答える
5715 参照

python - Python Tensorflow の顔認識システム

そこで、Google の Tensorflow のMNIST チュートリアルをさらに進めて、初歩的な顔認識システムを作成してみることにしました。

ディレクトリ:

amar -> すべてのターゲット画像が含まれています

test -> ネガを含むすべてのテスト画像が含まれています

train -> すべてのトレーニング画像が含まれます

各ディレクトリには 60 個の画像ファイルがあります。ディレクトリ名を画像ラベルとして使用しています。

この時点で、画像の強度を抽出することができ、すべてが完了しましたが、次のエラーが発生しています。

コードは次のとおりです。

0 投票する
1 に答える
1189 参照

python - lasagne NeuralNet で Conv2DLayer を使用中にエラーが発生しました

私は Windows 8.1 64 ビットを使用しており、ここで推奨されるhttp://deeplearning.net/software/theano/install_windows.html#installing-theano python win-python ディストリビューション (python 3.4) を使用します。チュートリアルのすべてのステップ (CUDA と GPU 構成を除く) を実行し、すべてをアンインストールしてもう一度実行しましたが、問題は解決しません。ラザニアを使用して畳み込みニューラル ネットワークを構築しようとしています。これまでにテストしたすべてのレイヤーが機能しています。Conv2DLayer のみがエラーをスローします。コードは次のとおりです。

以下に、発生したエラーを貼り付けました。gcc に何か問題があると思います (チュートリアルから正確なバージョンを取得しました) が、何が問題なのか実際にはわかりません。ラザニア/テアノの最先端バージョンがあります。Anaconda と WinPython の両方のディストリビューションを試しました。Python 2.7 と 3.4 の両方を試してみましたが、この問題の解決策が実際には見つかりません。デンス/maxPooling レイヤーのみのネットは正常に動作しています。この問題を解決するのに役立つ提案をいただければ幸いです。

エラーメッセージ:

0 投票する
0 に答える
446 参照

conv-neural-network - シャム畳み込みニューラル ネットワーク

matlabでシャム畳み込みニューラルネットワークを使用して、人間の再識別を試みています。CUHK データセットを使用して事前トレーニングを行ってから、ViPeR データセットのトレーニング セットを使用して微調整しています。

累積一致特性 (CMC) 曲線の結果をプロットします。

テストセットの結果は増加していますが、それほど多くはなく、その後減少してその後も維持されますが、トレーニングセットの結果は増加し続けています. トレーニング プロセスがトレーニング セットに適合し続けているが、テスト用ではないことを意味します。私の場合はオーバーフィッティングが発生しているようですが、ドロップアウトなどの方法を適用してオーバーフィッティングの問題を回避すると、CMC の結果は同じになります。ネットワーク モデルは、学習率 = 0.001、ミニ バッチ サイズ = 128、エポック = 300 のパラメーターで実行されます。

テスト セット CMC の結果を改善するためのアイデアはありますか?

0 投票する
1 に答える
734 参照

image-processing - 畳み込みニューラルネットワークの有効な入力範囲は?

画像検出アプリケーションには CONV-maxpool-CONV-maxpool-CONV-maxpool-CONV-maxpool-hidden-logistic アーキテクチャを使用します。ただし、ほとんどの例では、画像の強度を [0,1] の範囲に正規化しています。しかし、入力の平均がゼロではないため、良くないようです。それは白化された入力ではありません。[-0.5,0.5] 入力範囲を使用する試みはありますか?

0 投票する
2 に答える
1120 参照

machine-learning - CNN Caffemodelで4096次元の特徴ベクトルを1024次元のベクトルに減らすにはどうすればよいですか?

16 層の VGGnet を使用して、画像から特徴を抽出しました。4096 次元の特徴ベクトルを出力します。ただし、1024 次元のベクトルが必要です。この 4096 ベクトルをさらに 1024 ベクトルに減らすにはどうすればよいですか? 上に新しいレイヤーを追加する必要がありfc7ますか?

0 投票する
2 に答える
156 参照

python - 畳み込みニューラル ネットワークを深くすると、パラメータが少なくなりますか?

Keras で 2 つの畳み込みニューラル ネットワークをトレーニングしました。最初のネットは以下の通り

2つ目のネット

このメソッドを呼び出すとmodel.count_params()、最初のネットは 604035 パラメータになり、2 番目のネットは 336387 になります。

これはどのように可能ですか?2 番目のネットはより深く、より多くのパラメーターを含む必要があります。間違いはありませんか?

0 投票する
1 に答える
212 参照

python - CNN が Theano のデータセットでうまく機能しない

theano の convolutional_mlp を自分のデータセットに適用したいと考えています。しかし、私のデータセットでは CNN がうまく機能せず、その理由がわかりません。以下では、私のデータセットについて詳しく説明します。誰か助けてもらえますか? 本当にありがとう!

データセット: 私の目標は、CNN を使用して画像 (サイズは 28*28 = 784) を 0 と 1 の 2 つのタイプに分類することです。元のデータは、csv ファイルの datax.csv と datay.csv です。datax.csv では、各行は各画像の各ピクセルのグレー値を格納し、datay.csv では、各行は各画像のラベルです。datax.csv (1000 行、784 列)

ここに画像の説明を入力

datay.csv (1000 行)

上記の csv データに基づいて、次のように Python コードでデータセット ('myDataset.pkl.gz') を作成します。

データセットを構築した後、mnist.pkl.gz を置き換えて、convolutional_mlp.py で使用します。私のデータセットには、トレーニング、検証、およびテストのデータセットにそれぞれ 1000 の例、500 の例、および 500 の例があります。したがって、convolutional_mlp.py では、batch_size を 500 に設定します。次に、トレーニング、検証、およびテスト データセットにそれぞれ 2 つのミニバッチ、1 つのミニバッチ、および 1 つのミニバッチがあります。また、n_out を 2 にします。次に、コードを実行し、各エポックのトレーニング エラーを出力します。結果は次のとおりです。

ここに画像の説明を入力

エポックを何回実行しても、検証エラーは変わりません。実際、学習率を 0.1、0.01、0.001 と変更しましたが、結果は変わりません。なぜこれが起こるのか知りたいのですが、誰か助けてもらえますか?どうもありがとう!

0 投票する
1 に答える
716 参照

deep-learning - Deepmind ディープ Q ネットワーク (DQN) 3D 畳み込み

DQNネットワークで深層心理の論文を読んでいました。1つを除いて、私はそれについてほとんどすべてを得ました。これまで誰もこの質問をしなかった理由はわかりませんが、とにかく少し奇妙に思えます。

私の質問: DQN への入力は 84*84*4 の画像です。最初の畳み込み層は、8*8 の 32 個のフィルターと stide 4 で構成されています。この畳み込みフェーズの結果を正確に知りたいですか? つまり、入力は 3D ですが、すべて 2D のフィルターが 32 個あります。3 番目の次元 (ゲームの最後の 4 フレームに相当) は畳み込みにどのように関与しますか?

何か案は?ありがとうアミン