問題タブ [deep-learning]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
875 参照

artificial-intelligence - まれに発生するイベントのための教師なし深層人工ニューラル ネットワーク分類器

大規模なデータセットから高次の特徴を検出するために、教師なしの深層人工ニューラル ネットワークを構築してトレーニングしました。

データは毎日の気象測定値で構成されており、ディープ ネットの最後の層の出力は 4 ニューロン幅であり、うまくいけば高次の特徴を表します。ここで、非常にまれなイベント (竜巻など) の確率を検出したいと考えています。竜巻を引き起こしたデータポイントを選び出しましたが、データポイントについては非常に少ないです10,000 out of 5,000,000

  • 10,000 個のデータ ポイントのみで構成されたトレーニング セットを作成し、tornado毎回 1 個の出力を希望しますか?
  • 5,000,000 個のデータ ポイントすべてで構成されるトレーニング セットを作成し、竜巻がない場合は目的の出力 0 を、竜巻がある場合は 1 を出力しますか? しかし、それはおそらく竜巻を予測することはできません.
  • 他の解決策?
0 投票する
1 に答える
671 参照

deep-learning - Caffe ディープ ラーニング ライブラリの例

http://caffe.berkeleyvision.org/tutorial/net_layer_blob.htmlの例を次に示し ます。

私はちょっと迷っています。この例から何を推測すればよいでしょうか?

0 投票する
1 に答える
1967 参照

machine-learning - googleNet の出力のようなトレーニング済みモデルと実際のクラス ラベルとの間のラベル マップはどこにありますか?

みなさん、カフェ初心者です。現在、モデル動物園からダウンロードしたトレーニング済みの GoogleNet を使用して、いくつかの画像を分類しようとしています。ただし、ネットワークの出力は、実際のラベル (犬、猫など) ではなくベクトルのようです。googleNet の出力のようなトレーニング済みモデルと実際のクラス ラベルとの間のラベル マップはどこにありますか? ありがとう。

0 投票する
4 に答える
11625 参照

neural-network - Caffeでブロブを再形成するには?

Caffeで形状N x C x H x Wのブロブを再形成する方法は?N x 1 x (C*H) x W

チャネル間で重みが同じ畳み込み層を作りたいです。

私が思いついた 1 つの方法は、形状の下部のブロブの形状N x C x H x Wを変更しN x 1 x (C*H) x W、その上に畳み込みレイヤーを配置することです。しかし、ブロブを再形成する方法がわかりません。

私を助けてください、ありがとう。

0 投票する
1 に答える
1997 参照

machine-learning - Caffe での畳み込みの問題

HDF5 ファイルに保存されているグレースケール形式の 96x96 ピクセルの画像があります。私はカフェを使用して複数の出力回帰を実行しようとしていますが、畳み込みが機能していません。ここでの問題は正確には何ですか?畳み込みが機能しないのはなぜですか?

私のprototxtレイヤーファイルはこのようなものです

0 投票する
2 に答える
726 参照

matlab - Deep Learning Toolbox - ディープ ビリーフ ネットワーク

現在、deeplearntoolbox から matlab コードを実行しようとしていtest_example_DBN.mます。

ただし、エラーが発生しましたが、問題の内容と修正方法がわかりません。問題がどこにあり、それを機能させる方法を説明し、教えてくれるあなたの助けが必要です. 前もって感謝します..

以下のようなエラーメッセージ:

??? lmisys(5) にアクセスしようとしました。numel(lmisys)=4 のため、インデックスが範囲外です。

==> 23 の lmiunpck のエラー

rs=lmisys(4); rv=lmisys(5); % LMISET、LMIVAR の行サイズ

==> 26 での nnsetup のエラー

[LMI_set,LMI_var,LMI_term,data]=lmiunpck(lmisys);

==> 10 での dbnunfoldtonn のエラー

nn = nnsetup(サイズ);

==> 31 での TryDBN のエラー

nn = dbnunfoldtonn(dbn, 10);

0 投票する
2 に答える
1059 参照

nlp - SENNAと呼ばれるNLPタガー

SENNA と呼ばれる nlp tagger について質問があります。これは、Colbert と彼の同僚が論文に基づいて開発したものです: 自然言語処理 (ほぼ) from Scratch.

SENNA (このアドレスで入手可能なコードです: http://ronan.collobert.com/senna/download.html ) には、ニューラル ネットワークをトレーニングするためのコードが含まれていますか?

それとも、ネットワークのトレーニングによって得られた情報を使用するだけですか (事前にトレーニングされており、そのコードは SENNA にありません)。

0 投票する
2 に答える
752 参照

python - クラス内のtheanoシンボリック変数の値にアクセスするには?

my_classifier.y_binary の値にアクセスしたいです。私の目標は、my_classifier.error を計算することです。

eval を使用して my_classifier.y_hat の値を取得する方法は知っていますが、入力が自己パラメーターの場合に使用する方法がわかりません。

ありがとう

0 投票する
1 に答える
1506 参照

machine-learning - 畳み込みディープ ビリーフ ネットワーク (CDBN) と畳み込みニューラル ネットワーク (CNN)

最後に、ニューラル ネットワークの学習を開始しました。畳み込みディープ ビリーフ ネットワークと畳み込みネットワークの違いを知りたいです。こちらにも同様の質問がありますが、正確な答えはありません。Convolutional Deep Belief Network は CNN + DBN であることはわかっています。ということで、物体認識を行います。どちらが他のものよりもはるかに優れているか、またはそれらの複雑さを知りたいです。検索しましたが、何か間違っている可能性があるものは見つかりませんでした。

0 投票する
0 に答える
849 参照

matlab - ディープニューラルネットワークで2グループ分類を実行するには? (マトラブ)

私は機械学習(およびスタックオーバーフローも)が初めてで、いくつかの分類タスクを作成したいと考えています。LIBSVM とニューラル ネットワーク ツールボックスの Matlab のパターン認識ツールを使用して、データ セット (音声音響分野) に対して 2 つのグループ分類を実行し、隠れ層が 1 つある単純なネットワークを作成しました。より高い分類結果を期待して、ディープ ニューラル ネットワークを試してみたいと思います。このコードを見つけました: http://www.mathworks.com/matlabcentral/fileexchange/42853-deep-neural-network

ちょっと理解に苦しむ。

私のデータは 19 個のパラメーターの 127 サンプルで構成されているため、入力番号は 19 です。それらを 0 と 1 の 2 つのグループに分類したいので、出力番号は 1 です。データ セットの値は 0 と 1 の間で正規化されます。 .

私のコードは次のとおりです。

コードが実行されます。rmse は 0.4183、AveErrNum は 0.1969 です。必要なのは、ターゲット (outputdata に格納されている) とネットワーク予測 (精度 = 正しく分類されたデータ / すべてのデータ) の間の分類精度です。二値化後のネットワーク予測はどこにありますか?

分類に適切なタイプのネットワークを使用していますか? データをトレーニング、検証、およびテストのサンプルに分割する必要はありませんか (隠れ層が 1 つある単純なニューラル ネットワークの場合など)。

助けてくれてありがとう!