問題タブ [deep-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - LeNet5 が入力として 32×32 画像を使用するのはなぜですか?
mnist データセットの手書き数字画像が 28×28 であることは知っていますが、なぜ LeNet5 の入力は 32×32 なのですか?
python - カフェでモデルをトレーニングするための HDF5 データの使用エラー
私はカフェで作業しており、~/../caffe/examples/hdf5_classification の prototxt ファイルを使用した HDF5 データを使用してカフェネット モデルをトレーニングしようとしています。しかし、次のエラーが表示されます
PS: 私は Python プログラミングの初心者です。
誰かがこれに関して私を助けることができます.....乾杯
r - R Package Deepnet: MNIST データセットのトレーニングとテスト
deepenetパッケージのdbn.dnn.train関数を使用して MNIST データセットをトレーニングしようとしています。タスクは分類です。次のコマンドを使用しています
私が直面している問題は次のとおりです。
1) ラベルは因子型ベクトルである必要があります。しかし、ラベルを因子として入力すると、関数は「yは行列またはベクトルでなければならない」というエラーを出します。そのため、ラベルを数値として使用しています。分類タスクの進め方
2) dbn.dnn.train の予測を行う機能とは何か。私は nn.predict を使用していますが、ドキュメントには、入力は関数 nn.train によってトレーニングされたニューラル ネットワークである必要があると記載されています (dbn.dnn.train は記載されていません)。出力はすべてのレコードで 0.9986 です
computer-vision - Caffe で別のデータ セットのトレーニング スキーマを調整する方法は?
現在、私はcaffe imagenet の例に従っていますが、それを自分のトレーニング データ セットに適用しています。私のデータセットは約 2000 クラスで、各クラスは約 10 ~ 50 枚の画像です。実際に車両画像を分類していたのですが、画像が正面にトリミングされていたため、各クラス内の画像は同じサイズ、同じ画角 (ほぼ) です。
imagenet スキーマを試してみましたが、うまくいかなかったようで、約 3000 回繰り返した後、精度が 0 になりました。スキーマを調整する方法に関する実用的なガイドはありますか?
lua - Torch によって生成されたモデルを使用して予測する方法は?
neuronetwork_tutorial.luaを実行しました。モデルができたので、自分の手書きの画像でテストしたいと思います。しかし、私は重みを保存することで多くの方法を試しましたが、今ではtorch の save メソッドと load メソッドを使用して完全なモデルを保存しています。
しかし今、私は自分の手書きの画像(28X28 DoubleTensorに変換)を予測しようとしていますmodel:forward(testImageTensor)
machine-learning - 入力のサイズが異なる場合に機械学習を行う方法は?
標準的なクックブックの機械学習では、長方形の行列を操作します。つまり、すべてのデータ ポイントに同じ数の特徴があります。すべてのデータ ポイントが異なる数の特徴を持つ状況にどのように対処すればよいでしょうか? たとえば、視覚的な分類を行いたいが、すべての写真の寸法が異なる場合、または感情分析を行いたいが、すべての文の単語の量が異なる場合、または恒星分類を行いたいが、すべての星の観測回数が異なるなど。
これらの不規則なサイズのデータから通常のサイズの特徴を抽出するのが通常の方法だと思います。しかし、私は最近、深層学習に関する講演に出席しました。講演者は、データから機能を手作りするのではなく、深層学習者が適切な機能を自分で学習できることを強調しました。しかし、入力層のサイズが固定されていない場合、たとえばニューラル ネットワークをどのように使用すればよいでしょうか。
python - バッチ外の単一の例で theano を使用する
私は現在、機械学習ライブラリ theano を使用して、ディープ ラーニング技術を利用するプロジェクトを作成し、MNIST データセットの内部表現を見つけています。
これまでのところ、私のコードベースは、この畳み込みネット チュートリアルhttp://deeplearning.net/tutorial/lenet.htmlとほぼ同じです。
Mt 問題は、テスト バッチ (または実際にはテスト用に自分の手書き文字) から個々の例を選択できるようにしたいという事実から生じていますが、theano にこれを実行させることができないようです。
私はかなりの数のことを試しました(4日以上立ち往生しています)が、どこかに行き着いていると思う私の最新の試みは次のようになります:
tData は、テスト画像を含む theano.shared 変数です。layer3.y_pred は、関心のある出力です。
しかし、形状、テンソル以外の型、および変換に関連するエラーが発生し続けます。theano の経験があり、ボンネットの下で何が起こっているかを知っている人なら誰でも、何らかの意見をいただければ幸いです。
deep-learning - 畳み込みニューラル ネットワークがプーリング層を畳み込み層に結合する方法
評判が悪いので掲載できませんが、こちらのURLから画像が見れます。 http://fastml.com/images/cifar/lenet5.png CNN のアーキテクチャでは (レイヤ 2 - プーリング レイヤの後) 6@14x14 機能は 16@10x10 機能にどのようにマップされますか? 畳み込みカーネルのサイズと、6@14x14 機能マップを 16@10x10 機能マップに接続するために必要なカーネルの数を教えてください。
python - 変数サイズの画像の行列を Theano に渡します
Theano を使用して認識を行おうとしています。私の画像はすべて異なるサイズです。それらは絵画であるため、同じサイズであってはならないため、サイズを変更したくありません。可変長の画像サイズの画像のマトリックスを Theano 関数に渡す方法を考えていました。
これはnumpyでは不可能だという印象を受けています。代替手段はありますか?
artificial-intelligence - LSTM ネットワークは忘れるタイミングをどのように認識していますか?
LSTM ネットワークは、学習した依存関係を忘れるのに適した時期をどのように知るのでしょうか?