問題タブ [deep-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Theano/Lasagne/Nolearn ニューラル ネットワーク画像入力
私は画像分類タスクに取り組んでおり、ニューラル ネットワークのプロトタイプに Lasagne + Nolearn を使用することにしました。MNIST 数値分類などの標準的な例はすべて問題なく動作しますが、自分の画像を操作しようとすると問題が発生します。
グレースケールではなく、3 チャンネルの画像を使用したい。そして、画像から配列を取得しようとしているコードがあります:
NN のコードとそのフィッティングは次のとおりです。
次のような例外を受け取ります。
では、どの形式でネットワークに画像データを「フィード」しますか? 答えやヒントをありがとう!
optimization - パラメータ w と u の勾配を計算した後、SGD の方法でそれらを最適化するための次のステップは何ですか?
コーディング内容:重み行列 w とスコアの 2 番目のパラメーター u を使用して、簡単なニューラル ネットワークを構築します。入力ベクトルに w を掛けた後、結果にベクトル u を掛けて 1 つの図として結果を取得し、それが私のスコアです。
現在の場所:損失関数に関して、2 つのパラメーターの両方の勾配を計算しました。
私の問題:そして今、次に何をすべきか立ち往生していますか?
私の解決策の提案:パラメータを w = w + learingrate * w_grad (および u = u learning rate *u_grad) で更新し、コスト/損失値が減少するまでこの手順を実行できますか? これは機能しますか? これは正しいです?これは、確率的勾配降下の簡単な実装ですか?
私は Java でコーディングしています。簡単な方法でニューラル ネットワークを最適化する方法の簡単で優れた文書化された例があれば、それを私と共有してください。
前もって感謝します!
python - GLOG_minloglevel=1 を設定して、Caffe からのシェルへの出力を防止します
ニューラルネットをロードするときにシェルに大量の出力を出力しているCaffeを使用しています。
その出力を抑制したいと思います。これGLOG_minloglevel=1
は、Python スクリプトの実行時に設定することで実行できると思われます。私は次のコードを使用してそれを試みましたが、それでもネットのロードからすべての出力を取得します。出力を正しく抑制するにはどうすればよいですか?
machine-learning - 現在のパラメーター、勾配、およびコスト/損失 (関数) を指定して LBFGS を介してパラメーターを最適化する Java ライブラリまたはコード例はありますか?
私が探しているのは、次のような関数です。
optimizeByLBFGS(CurrentParamters,GradientOfParamters,Loss/Cost) 戻り値: 最適化されたパラメータ
次に、返された最適化されたパラメーターを使用して、新しい損失/コストを計算し、それらを再度フィードします...そして再び...この関数で。この目的のために何を使用できますか?
javaのpythonのscipy.optimize.minimizeのようなものですか?
現在のパラメータと勾配は、100 行 1 列の形式の配列/ベクトルで利用できます。利用できるものはありますか
前もって感謝します!
python - ラザニアの回帰: エラー
lasagne/nolearn で回帰を実行しようとしています。それを行う方法のドキュメントを見つけるのに苦労しています(一般的に深層学習の初心者です)。
単純なネットワーク (1 つの隠れ層) から始める
次のエラーが表示されます。
ありがとう!..
machine-learning - pylearn2 で cuda_convnet エラーをコンパイルできませんでした
Windows Server 2012 で pylearn2 を使用して CNN をコンパイルしようとしています。しかし、ネットワークに MaxoutConvC01B が含まれていると、コンパイルに失敗し、エラー メッセージが表示されます。
RuntimeError: (「ノードのコンパイル中に次のエラーが発生しました」、(GpuContiguous.0)、「\n」、「cuda_convnet をコンパイルできませんでした」)
この問題を解決するための助けをお願いします。
nlp - Theano の畳み込みで image_shape を動的にする方法
Theano で CNN を使用してつぶやきのデータセットを処理しようとしました。画像とは異なり、ツイートの長さ (画像の形状に対応) は可変です。そのため、各ツイートの形状は異なります。ただし、Theano では、畳み込みは形状情報が定数値である必要があります。だから私の質問は、image_shape を動的にする方法があるということですか?
python - 入力形状と互換性のない平均形状 -- IO.PY の CAFFE 分類エラー
このリンクを使用して、CUDA がインストールされた (ドライバーなしで) Ubuntu 14.04 仮想サーバーに Caffe をインストールしました。
分類ステップ:
トレースバックを生成します。
この SO スレッドのuser2696499 による記述の手順に従いましたが
、変数ins
は定義されていません。どのように、またはどこで定義するのですか?
classification - 画像分類のための深層学習でユニットを分類する
10 個のクラスを持つデータベースがあり、Deep Belief Network または Convolutional Neural Network によって分類テストを行うとします。問題は、最終層のどのニューロンがどのオブジェクトに関連しているかをどのように理解できるかということです。投稿の1つで、ある人が「どのニューロンが靴のようなオブジェクト用で、どのニューロンがそうでないかを理解するには、最後の層のすべてのユニットを別の教師付き分類器に配置します(これは、マルチクラスSVMのようなものにすることができますまたはソフト マックス レイヤー) どのようにすればよいかわかりません? もっと拡張する必要があります。
python - Python keras、nolearn、インポート エラー
theano または keras の nolearn をインポートしようとすると、このエラーが発生します。
Keras をインストールするときに、この Linux エラーでこれをソートしたと教えましたが、現実は異なりました。
何か案は?
これはプログラムのインポート部分です。