問題タブ [lasagne]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - ラザニア ニューラル ネットワーク層にバイアスを追加する
Lasagne ニューラル ネットワーク ツールキットの各レイヤーにバイアス ノードを追加する方法があるかどうか疑問に思っていますか? ドキュメントで関連情報を見つけようとしています。
これは私が構築したネットワークですが、各層にバイアス ノードを追加する方法がわかりません。
python - Theano での実行中に GPU を選択する
4 GPU マシンで theano と lasagne を使用してニューラル ネットワークをトレーニングしています。My.theanorc
には次の行が含まれています。
だから、Pythonで私が実行する import theano
と、私は得るUsing gpu device 0: GRID K520
theano をインポートした後、たとえば gpu1 を使用することを選択した場合はどうなりますか? これを動的に行いたいのですが、編集しなく.theanorc
ても可能ですか? それとも、実行時に選択するのですか?
theano - ラザニアでのデータ拡張による予測の集計
私は MNIST データセットに取り組んでおり、データ拡張を使用してニューラル ネットワークをトレーニングしています。各画像から 24、24 サブイメージをランダムに抽出し、それを NN の入力として使用する BatchIterator があります。
トレーニングに関する限り、すべてがうまくいきます。しかし、予測のために、特定の画像から 5 つのサブ画像を抽出し、予測を平均化したいのですが、うまくいきません。
ここに私の BatchIterator があります:
私のネットをトレーニングデータに当てはめることはうまくnet.predict(X_test)
いきますが、そうするとエラーが発生します。CropIterator.transform()
yb
None
完全なコール スタックは次のとおりです。
のテスト部分でそれを修正する方法について何か考えはありCropIterator.transform()
ますか?
python-2.7 - nolearn 0.5 はラザニア 0.1 または 0.2 と互換性がありませんか?
インポートしたいとき:
私はいつもこのエラーを受け取りました
Theano のバージョンは 0.7.0 です。
python - Lasagne/Theano では、4d Theano テンソルに 4d numpy 配列が必要ですか?
私はラザニアでニューラルネットワークを構築しており、githubの例に従っています。ネットワークに正確に入力する方法に興味があります。例では、入力レイヤーは 4 次元であり、実際には theano tensor4 であると述べています。これは、ネットワークに 4 次元の numpy 配列を与える必要があるということですか? それは可能ですか?リストの 4 次元ベクトルからどのように作成しますか?
machine-learning - ラザニア精度のニューラルネットワーク
ラザニアを使用して、いくつかの画像でニューラル ネットワークを使用してバイナリ分類器を構築しようとしています。トレーニングと検証の損失は大きく変動し (安定しません)、検証の精度は常に0%
です。さらに、ネットワークは常に1
テスト セットと同様にターゲットを予測します。
私が使用しているネットワークは、基本的にここにある mnist データセットのラザニアの例のコピーにすぎませんが、トレーニング セット内の509 x 115
周囲の画像を含む、かなり大きい ( ) 私の画像に適合しています400
。これが問題なのか、ネットワークをより深くする必要があるのか、ニューロンを増やす必要があるのか どうか疑問に思っていますか?
このサイズの画像には、より大きなトレーニング セットが必要ですか? それとも、不正確ではありますが、テスト セットの一連の予測を表示する必要がありますか?
theano - LSTMLayer はトレーニング前でも NaN 値を生成します
私は現在、ノイズの多いシーケンスの次のステップを予測するために、ラザニアを使用して LSTM ネットワークを構築しようとしています。最初に 2 つの LSTM レイヤーのスタックをしばらくトレーニングしましたが、発散の問題 (最終的に NaN 値が生成された) のため、非常に小さな学習率 (1e-6) を使用する必要がありました。ネットワークがスムーズで位相のずれたバージョンの入力を生成したため、結果はちょっと残念でした。
次に、デフォルトで指定されているものよりも優れたパラメーター初期化を使用する必要があるという結論に達しました。目標は、アイデンティティを模倣するネットワークから開始することでした。これは、強力な自己相関信号の場合、次のステップ (x(t) ~ x(t+1)) の適切な最初の推定である必要があり、少し振りかける必要があるためです。その上にノイズの。
次に、この lstm 生成コードを使用して、次のネットワークを生成します。
問題は、トレーニングがなくても、このネットワークが最初の LSTM 層からガベージ値を生成し、場合によっては大量の NaN を生成することです。
理由がわかりません。各マトリックスをチェックしましたが、それらの値は、私が望んでいたように問題ありません。実際のnumpy配列を使用して、各ゲートのアクティベーションとその結果の非表示のアクティベーションを再作成しようとしたところ、入力がうまく再現されました。私はそこで何を間違えましたか??
python - Nolearn/Lasagne ニューラル ネットワークがトレーニングを開始しない
を使用して、Theano 0.7
(ノートブックで) GPU でニューラル ネットワークをトレーニングしています。ただし、最初のレイヤー ( ) のため、次のネットワークは数時間待ってもトレーニングを開始しません。nolearn 0.6adev
lasagne 0.2.dev1
IPython 3.2.1
'reduc'
最初のレイヤーをコメントアウトすると、トレーニングは数秒で開始されます。より複雑なネットワークのトレーニングも問題ではありません。問題の原因について何か考えはありますか?
編集:奇妙なことに、 and を削除するconv4
とconv5
、トレーニングも妥当な時間内に開始されます。
Edit2 :さらに奇妙なのは、レイヤーでフィルターのサイズを 10 に変更するとreduc
、トレーニングが妥当な時間内に開始されることです。その後、セルの実行を停止し、この値を 1 に変更してセルを再実行すると、トレーニングはうまくいきます...
最後に、私は別のフレームワークを使い始めましたが、誰かが興味を持っている場合は、ラザニア ユーザー グループで開始したスレッドへのリンクを次に示します。
scikit-learn - ラザニアを使用して F1-micro スコアを計算する方法
このコードをオンラインで見つけて、テストしたいと思いました。結果には、トレーニングの損失、テストの損失、検証スコア、および時間などが含まれます。
しかし、どうすれば F1-micro スコアを取得できますか? また、次のコードを追加した後、scikit-learn をインポートして F1 を計算しようとした場合:
このエラーが発生しました:
ValueError: マルチラベル インジケーターと連続マルチ出力の混在を処理できません
上記のコードに基づいて F1-micro 計算を実装するにはどうすればよいですか?
python - Lasange を使用した畳み込みネット - 画像のサイズ変更
私は Lasagne を使用していくつかのニューラルおよび畳み込みネットをトレーニングしており、Python を使用してほとんどのデータ/画像の前処理を行っていました。ただし、コードをより柔軟にするために、これらの一部をラザニア レイヤーに組み込みたいと考えています。
入力画像のサイズを変更できるラザニアレイヤーはありますか?