問題タブ [lasagne]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - ラザニアで出力分類を取得する
Lasagne/Theano で出力分類を取得する
コードを純粋な Theano から Lasagne に移行しています。チュートリアルからこの特定のコードを取得して、特定のデータを使用した予測の結果を取得し、kaggle に送信する csv ファイルを生成しました。しかし、ラザニアではうまくいきません。私はいくつかのことを試しましたが、すべてエラーが発生します。
誰かが何が悪いのかを理解するのを手伝ってくれたら嬉しいです!
ここにコード全体を貼り付けました: http://pastebin.com/e7ry3280
で始まる行でコードが失敗しますppm = theano.function...
。
TypeError: タイプ TensorType(float32, 3D) (Variable Subtensor{int64:int64:}.0) をタイプ TensorType(float32, 4D) に変換できません。Subtensor{int64:int64:}.0 を TensorType(float32, 4D) に手動で変換することを試みることができます。
テストデータを CNN に入力し、結果を CSV ファイルに取得しようとしています。どうすればいいですか?テスト データ全体が GPU に収まらないため、ミニバッチを使用する必要があることはわかっています。
python - virtualenv で CUDA を使用して Theano にサービスを提供する
ルート権限がないため、Ubuntu 14.04 の python3 virtualenv に Theano と Lasagne をインストールしました。
いくつかのコードを実行するとImportError: dnn not available
、/usr/local/cuda-6.5/targets/x86_64-linux/include/cudnn.h
.
Theano ドキュメントに従って、環境変数を設定CUDA_ROOT=/usr/local/cuda-6.5
すると、追加のエラーが発生します。
ERROR (theano.sandbox.cuda): Failed to compile cuda_ndarray.cu: libcublas.so.6.5: cannot open shared object file: No such file or directory
この CUDA ライブラリを virtualenv に含める方法はありますか?
neural-network - このオートエンコーダー ネットワークを適切に機能させることができません (畳み込みレイヤーと maxpool レイヤーを使用)
オートエンコーダーネットワークは、通常の分類子 MLP ネットワークよりも複雑なようです。ラザニアを使用して何度か試みた後、再構成された出力で得られるものはすべて、入力数字が実際に何であるかを区別せずに、 MNISTデータベースのすべての画像のぼやけた平均によく似たものです。
私が選択したネットワーク構造は、次のカスケード層です。
- 入力レイヤー (28x28)
- 2D 畳み込み層、フィルター サイズ 7x7
- 最大プーリング層、サイズ 3x3、ストライド 2x2
- 密な (完全に接続された) 平坦化層、10 単位 (これがボトルネックです)
- 高密度 (全結合) レイヤー、121 ユニット
- レイヤーを 11x11 に変形
- 2D 畳み込み層、フィルター サイズ 3x3
- 2D アップスケーリング レイヤー係数 2
- 2D 畳み込み層、フィルター サイズ 3x3
- 2D アップスケーリング レイヤー係数 2
- 2D 畳み込み層、フィルター サイズ 5x5
- 機能最大プーリング (31x28x28 から 28x28 へ)
すべての 2D 畳み込み層には、バイアスが解かれ、シグモイド活性化と 31 個のフィルターがあります。
すべての全結合層にはシグモイド活性化があります。
使用される損失関数は二乗誤差であり、更新関数はadagrad
です。学習用のチャンクの長さは、1000 エポックを掛けた 100 サンプルです。
完全を期すために、次のコードを使用しました。
このネットワークを改善して、合理的に機能するオートエンコーダーを取得する方法についてのアイデアはありますか?
python - 範囲外のラザニア mlp ターゲット
こんにちは、mnist の例を変更して、データセットに合わせようとしています。mlp の例のみを使用しようとすると、奇妙なエラーが発生します。
データセットは 2100 行 17 列の行列で、出力は 16 の可能なクラスのいずれかになります。エラーは、トレーニングの第 2 段階で発生しているようです。モデルは正しく構築されています (ログ情報が確認されました)。
エラーログは次のとおりです。
ValueError: y_i 値が範囲外です
エラーの原因となった適用ノード:
CrossentropySoftmaxArgmax1HotWithBias(Dot22.0, b, ターゲット)
トポソート指数:33
入力タイプ: [TensorType(float64, matrix), TensorType(float64, vector), >TensorType(int32, vector)]
入力形状: [(100, 17), (17,), (100,)]
入力ストライド: [(136, 8), (8,), (4,)]
入力値: ['非表示'、'非表示'、'非表示']
出力クライアント: [[Sum{acc_dtype=float64}(CrossentropySoftmaxArgmax1HotWithBias.0)]、[CrossentropySoftmax1HotWithBiasDx(Assert{msg='
sm
anddy
do not have the same shape.'}.0, CrossentropySoftmaxArgmax1HotWithBias.1, targets)]、[]]ヒント: ほとんどの Theano 最適化を無効にして再実行すると、このノードが作成されたときのバックトレースが得られる可能性があります。これは、Theano フラグ 'optimizer=fast_compile' を設定することで実行できます。それが機能しない場合は、Theano の最適化を 'optimizer=None' で無効にすることができます。ヒント: この適用ノードの debugprint とストレージ マップのフットプリントには、Theano フラグ 'exception_verbosity=high' を使用します。
コードは次のとおりです。
python - ラザニア 1D 畳み込みエラー
ラザニアを使用して CNN を構築しようとしていますが、119 個の機能変数があります。Lasagne を使用して MLP を正常に構築できましたが、次のコードを使用して (1D 畳み込みを使用して) 畳み込みレイヤーを追加しようとすると、エラーが発生します。私は何か間違ったことをしていますか?Lasagne の 1D 畳み込みはテストされましたか?
ファイル "/Users/adityanagarajan/anaconda/lib/python2.7/site-packages/lasagne/layers/dense.py"、63 行目、__init__ super(DenseLayer, self).__init__(incoming, **kwargs) ファイル" /Users/adityanagarajan/anaconda/lib/python2.7/site-packages/lasagne/layers/base.py"、35 行目、__init__ self.input_shape = incoming.output_shape ファイル"/Users/adityanagarajan/anaconda/lib/python2 .7/site-packages/lasagne/layers/base.py", line 49, in output_shape return self.get_output_shape_for(self.input_shape) File "/Users/adityanagarajan/anaconda/lib/python2.7/site-packages/lasagne /layers/conv.py"、237 行目、get_output_shape_for output_length = conv_output_length(input_shape[2]、IndexError: タプル インデックスが範囲外です
python - ラザニア - 予期しないキーワード エラー
私は Python で機械学習を学ぼうとしています - そして lasagne / nolearn パッケージを実行したいと思っています。すべてのパッケージをインストールしました。以下のスクリプトを使用しています ( http://semantive.com/deep-learning-examples/から)。次のエラーが発生します。このエラーを解決する方法を知っている人がいたら教えてください。
スクリプトは、ラザニア モジュールの 1 つのみで初期エラーを返します。
その後 - パッド引数の周りにエラーがあります:
コード
python - nolearn (python 機械学習) をインストールするとエラーが発生する
Python 機械学習ライブラリ (theano と lasagne に基づく) である nolearn をインストールしようとしていますが、異常なエラーが表示されます (注: コマンドは、インストール ドキュメントとして nolearn をインストールする最初のステップです)。
指図:
出力:
freetype のインストールや matplotlib の再インストール (どちらも別の stackexchange の投稿に基づく) など、さまざまなことを試しましたが、残念ながらまだ機能しません (上記のエラーが表示されます)。
どんな支援も大歓迎です!
私の構成は次のとおりです。
- MAC OSX (ヨセミテ) で動作
- ANACONDA 環境での実行
- conda を環境マネージャーとして使用する
python - Lasagne dropoutlayer が GPU を効率的に利用しない
私は DNN 音声強調プロジェクトに theano と lasagna を使用しています。ラザニアのドキュメント (/github.com/Lasagne/Lasagne/blob/master/examples/mnist.py) の mnist の例と非常によく似たフィードフォワード ネットワークを使用します。このネットワークは、いくつかのドロップアウト層を使用しています。Nvidia Titan X GPU でネットワークをトレーニングしています。ただし、ドロップアウトを使用しない場合、GPU 使用率は約 60% で、1 エポックは約 60 秒かかりますが、ドロップアウトを使用すると、GPU 使用率は 8% に低下し、各エポックは約 600 秒かかります。これは、ドロップアウト率が 20% または 0.1% に設定されているかどうかに関係ありません。
最初は、ドロップアウト マスクの生成に使用された乱数ジェネレーター (RNG) が GPU で実行されなかったことが原因だと考えていました。ただし、コード ( https://github.com/Lasagne/Lasagne/blob/master/lasagne/layers/noise.py ) では、rng_mrg が使用されているように見えます。これは、このリンクに基づいて GPU で実行する必要があります: http ://deeplearning.net/software/theano/tutorial/examples.html#other-implementations
theano プロファイラーを実行すると、「theano.sandbox.rng_mrg.mrg_uniform」が実行時間の 86.7% を占めていることがわかりますが、これはわかりません。
誰かが私の GPU 使用率を殺してしまう原因について考えを持っているなら、私はそれを感謝します.