問題タブ [mnist]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
lua - Lua/Torch: MNIST データセットをトレーニングに分割し、各セットに同数のラベルを使用してテストします
データをトレーニング (80%) とテスト (20%) セットに分割しようとしていますが、最初にデータをシャッフルしてから、各データセットの各ラベル (y、10 クラス) に同数のサンプルを割り当てる必要があります。
ルア/トーチでこれを行うにはどうすればよいですか? ありがとう!
これはこれまでの私のコードです...
tensorflow - Tensorflow を使用してオートエンコーダーから隠れユニット/ソフトマックス (機能) を抽出 (プロット) する方法
私は ML が初めてで、tensorflow を使用しています。
オートエンコーダーの機能を見たいのですが、隠しユニットを抽出する (見る) 方法がわかりません。
誰かが私を助けることができますか?
独自のデータセットを作成しましたが、元のコードは MNIST です: https://jmetzen.github.io/2015-11-27/vae.html
非表示ユニットのレイヤーを追加してスタック AE に変換しました.. (スタックになったかどうかはわかりませんが、機能しました)
theano - Caffe と Theano MNIST の例
Caffe と Theano になるまでに、さまざまな深層学習フレームワークを学習 (および比較) しようとしています。
http://caffe.berkeleyvision.org/gathered/examples/mnist.html
と
http://deeplearning.net/tutorial/lenet.html
チュートリアルに従って、これらのフレームワークを MNIST データセットで実行します。ただし、精度とパフォーマンスの点でかなりの違いがあることに気付きました。
Caffe の場合、精度が最大 97% まで上がるのは非常に高速です。実際、プログラムを完了するのに 5 分しかかからず (GPU を使用)、テスト セットでの最終的な精度は 99% を超えています。なんて印象的!
ただし、Theano では、はるかに貧弱です。92% のテスト パフォーマンスを達成するだけで、(同じ GPU を使用して) 46 分以上かかりました。
同じデータセットで比較的同じアーキテクチャを実行しているフレームワーク間にそれほど大きな違いはないはずなので、私は混乱しています。
だから私の質問はです。Caffe によって報告される精度の数値は、テスト セットでの正しい予測のパーセンテージですか? もしそうなら、不一致の説明はありますか?
ありがとう。
conv-neural-network - MNIST の CNN の第 1 層の特徴量が 32 であるのはなぜですか?
次のチュートリアルに基づいています。
https://www.tensorflow.org/versions/v0.6.0/tutorials/mnist/pros/index.html#deep-mnist-for-experts
32
MNIST の CNN の第 1 層の機能の数はどこから来ていますか?
そして64
、第2層の機能の数はどこから来ているのですか?
deep-learning - わかりにくい Caffe MNIST の例
ここで Caffe チュートリアルを行った後: http://caffe.berkeleyvision.org/gathered/examples/mnist.html
ここで定義されているこのチュートリアルで使用する別の (そして効率的な) モデルについて、私は本当に混乱しています: https://github.com/BVLC/caffe/blob/master/examples/mnist/lenet_train_test.prototxt
私が理解しているように、Caffe の畳み込み層は、活性化関数を適用せずに、各入力の Wx+b の合計を単純に計算します。アクティベーション関数を追加したい場合は、その畳み込みレイヤーのすぐ下に、Sigmoid、Tanh、または Relu レイヤーなどの別のレイヤーを追加する必要があります。私がインターネットで読んだ論文/チュートリアルはすべて、活性化機能をニューロンユニットに適用しています。
モデルで畳み込みレイヤーとプーリングレイヤーがインターリーブしていることしか確認できないため、大きな疑問符が残ります。誰かが私に説明をしてくれることを願っています。
サイト ノートとして、私にとってもう 1 つの疑問は、このソルバーの max_iter です: https://github.com/BVLC/caffe/blob/master/examples/mnist/lenet_solver.prototxt
トレーニング用に 60.000 枚の画像、テスト用に 10.000 枚の画像があります。では、なぜここで max_iter が 10.000 しかないのでしょうか (それでも 99% を超える精度が得られる可能性があります)。Caffe は反復ごとに何をしますか? 実際、正解率が正しい予測/テストサイズの合計であるかどうかはよくわかりません。
非常に短い時間 (> 99% の精度を得るのにわずか 5 分) でこの高い精度を達成できるフレームワークの例を見つけられなかったので、この例には非常に驚いています。したがって、私が誤解したことがあるはずがないと思います。
ありがとう。
caffe - mnist データセット Lenet トレーニング
カフェ初心者です。mnist データセットで Lenet をトレーニングするために、データを caffe の data/mnist にダウンロードしました。を使用して lmdb に変換しようとすると、次の./examples/mnist/create_mnist.sh
ようなエラーが発生します。
誰かがこれで私を助けることができますか? 正確には何が問題になる可能性がありますか?