問題タブ [mini-batch]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Tensorflow: tf.train.batch() の使い方
ニューラル ネットワークに Tensorflow (バージョン 1.7.0 および Python 3.5) を使用していますが、tf.train.batch()
関数の使用に問題があります。ここを参照してください。
私のデータセットの次元は次のとおりです。
テスト画像 (100000、900) テスト ラベル (100000、10)
したがって、サイズが 30 x 30 ピクセルのテスト画像が 100000 個あります。ラベルは、サイズが 100000 x 10 のワンホット マトリックスです。
ここで、サイズ 100 のランダム バッチを取得し、関数を使用したいと考えていますtf.train.batch()
。
コードで次のように関数を使用します。
これを行うと、次のエラーが発生します。
tf.train.batch()
ネットワークが機能するようにするにはどうすればよいですか? ミニバッチを作成するには、別の方法を使用する必要がありますか?
python - TensorFlow オプティマイザは、API 実装のミニバッチを最小限に抑えますか?
入力テンソルにミニバッチ サイズのデータを供給すると、GradientDescentOptimizer がすでにミニバッチを実装していると言うと、Tensorflow は API を最小化しますか?
ミニバッチがメソッドに実装されていないことを示すこのボルグを読んでいました。最初に実行してから勾配を蓄積し、最後に を実行してミニバッチトレーニングを終了する必要があります。minimize
compute_gradients
apply_gradients
しかし、実験を行ったところ、2 つのアプローチで同様の結果が得られることがわかりました。トレーニングデータの1行だけではなく、ミニバッチサイズの行列である場合、minimize
メソッドがミニバッチ更新を行うかどうか疑問に思います。feed_dict
この質問を明確にし、間違っている場合は修正するのを手伝ってくれる人はいますか?
よろしくお願いします