問題タブ [theano]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Stacked DenoisingAutoencoders の Theano 実装 - dA レイヤーへの同じ入力はなぜですか?
http://deeplearning.net/tutorial/SdA.html#sdaのチュートリアル Stacked DenoisingAutoencodersでは、pretraining_functions は、各 dA レイヤーのトレーニング関数を表す関数のリストを返します。しかし、すべての dA レイヤーに同じ入力 ( ) を与える理由がわかりませんtrain_set_x
。実際には、各 dA レイヤーの入力は、最初の dA レイヤーを除く下のレイヤーの出力である必要があります。これらのコードが正しい理由を誰か教えてもらえますか?
neural-network - Theano による平均プーリング
平均プールなど、既存の maxpool を期待して、Theano を使用してニューラル ネットワーク用の別のプーリング機能を実装しようとしています。
平均プーリングが既に実装されているこのソースを使用すると、私のコードは次のようになります。
テストするためのランダムな初期化:
Theano スカラーと関数の定義:
TSN はtheano.sandbox.neighbours です。
そして、関数の呼び出し:
そして、私はエラーが発生しています:
このエラーがよくわかりません。このエラーを修正する方法や、Theano でプログラムされた他のプーリング手法の例について、何か提案をいただければ幸いです。
ありがとう!
編集:境界線を無視すると、完全に機能します
python - Theano スタック オートエンコーダーから予測ベクトルを取得する方法
Theano深層学習チュートリアルの第 8 章から、分類用に Stacked Autoencoder を変更しようとしています。私が扱っている autoencoder のコードは、こちらで入手できます。
私のデータセットは、test_set_x、test_set_y、valid_set_x、valid_set_y の 4 つの配列で構成されています。名前は自明です。
これは、トレーニングされたオートエンコーダーが検証セットでチェックされる方法です。
このコードは私のデータセットに「0.87」を出力するので、うまくいきます。
より冗長に表現する
それでも正解率は 87% です。
しかし、実際のクラスの予測ベクトルを直接取得しようとすると、非常に間違った結果が得られます。結果ベクトルのすべての要素は 4 (私のクラスでは 1 つ) です。
私の試みは次のようになります:
これは "[4, 4, 4, ....., 4, 4]" を出力します。この結果を valid_set_y ベクトルと比較すると、約 12% の正確性が得られますが、87% 近くにもなりません。
私が間違っていることを理解していません。
theano オートエンコーダーおよび/または言及されたチュートリアルを扱ったことがある場合は、私を助けてください。
ありがとうございました。
python - CudaNdarraySharedVariable を TensorVariable に変換する
pylearn2
リモート サーバーでの予測のために、GPU モデルを CPU 互換バージョンに変換しようとしています。GPU のないマシンで cuda コードを呼び出す際のエラーを回避するには、CudaNdarraySharedVariable
をに変換するにはどうすればよいですか? TensorVariable
実験的な theano フラグunpickle_gpu_to_cpu
では、いくつかCudaNdarraySharedVariable
の がぶら下がっているようです (具体的にはmodel.layers[n].transformer._W
)。
python - theano における畳み込みニューラル ネットワークの教師なし事前トレーニング
1 つ (または複数) の畳み込み層 (CNN) と 1 つまたは複数の完全に接続された隠れ層を上部に持つディープ ネットを設計したいと考えています。
完全に接続されたレイヤーを持つディープ ネットワークの場合、theano には、教師なし事前トレーニング用のメソッドがあります。たとえば、ノイズ除去オート エンコーダーまたはRBMを使用します。
私の質問は次のとおりです。畳み込み層の教師なし事前トレーニング段階を (theano で) 実装するにはどうすればよいですか?
答えとして完全な実装は期待していませんが、優れたチュートリアルまたは信頼できるリファレンスへのリンクをいただければ幸いです。
python - 関数宣言のTheano OSError
Theano シンボリック関数を宣言すると、OSError とトレースバックが発生します。興味深いことに、同じコードが別のマシンで機能します。1 台のマシンは GPU を使用するように構成されていますが、もう 1 台 (エラーあり) は CPU のみです。他の誰かがこの種の行動を経験し、どのように進めるかの手がかりを持っていますか?
python - Theano で内積を計算中にエラーが発生しました
次の簡単なコードを Theano で記述しましたが、関数 f のコンパイル中にエラーが発生します。
私の側で何が問題になっていますか?
python - Theano でマトリックス全体を印刷する
ここでアドバイスされているように、Theano コードをデバッグし、テンソルの値を出力しています。
問題は、a
が比較的大きな行列の場合、値が最初の数行と最後の数行に切り捨てられることです。ただし、マトリックス全体を印刷したいと思います。これは可能ですか?