問題タブ [deep-learning]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
5188 参照

machine-learning - 多層パーセプトロン ネットワークを理解する

マルチレイヤーをトレーニングする方法を理解しようとしています。しかし、適切なネットワーク アーキテクチャ (つまり、ネットワークの各層のノード/ニューロンの数) を決定する方法を理解するのに苦労しています。

特定のタスクのために、それぞれ 3 つの状態の 1 つを入力できる 4 つの入力ソースがあります。これは 4 つの入力ニューロンが 0、1、または 2 のいずれかを発火することを意味すると思いますが、私の知る限り、入力はバイナリのままにしておくべきでしょうか?

さらに、隠れ層のニューロンの量を選択する際に問題が発生しています。どんなコメントも素晴らしいでしょう。

ありがとう。

0 投票する
3 に答える
13136 参照

performance - パーセプトロン学習アルゴリズムのパラメーター調整

パーセプトロン アルゴリズムのパラメーターを調整して、目に見えないデータで比較的うまく機能するようにする方法を見つけようとして、ある種の問題が発生しています。

動作確認済みのパーセプトロン アルゴリズムを実装しました。反復回数とパーセプトロンの学習率を調整する方法を見つけたいと思います。これらは、私が興味を持っている 2 つのパラメーターです。

パーセプトロンの学習率は、アルゴリズムが収束して完了するかどうかに影響しないことを知っています。nの変更方法を把握しようとしています。速すぎると大きく揺れ、低すぎると時間がかかります。

反復回数に関しては、理想的な回数を決定する方法が完全にはわかりません。

いずれにせよ、助けていただければ幸いです。ありがとう。

0 投票する
3 に答える
41350 参照

machine-learning - 人工ニューラルネットワークのニューロン数と層数の推定

層の数と層ごとのニューロンの数を計算する方法を探しています。入力として、入力ベクトルのサイズ、出力ベクトルのサイズ、およびトレーニング セットのサイズしかありません。

通常、最適なネットは、さまざまなネット トポロジを試して、エラーが最も少ないものを選択することによって決定されます。残念ながら私にはそれができません。

0 投票する
2 に答える
1760 参照

machine-learning - ニューラルネットワークの重み付け

最近、私はバックプロパゲーションネットワークを研究し、いくつかの手動演習を行いました。その後、私は質問を思いつきました(おそらく意味がありません):2つの異なる置換方法に従うことに重要なことはありますか:1。インクリメンタルトレーニング:すべてのデルタWijがわかったら、提示する前に重みがすぐに更新されます次のトレーニングベクトル。2.バッチトレーニング:デルタWijが計算され、各模範トレーニングベクトルに対して保存されます。ただし、デルタWijは、重みを更新するためにすぐには使用されません。体重の更新は、トレーニングエポックの終わりに行われます。

しばらくグーグルで検索しましたが、結果が見つかりませんでした。

0 投票する
14 に答える
245113 参照

machine-learning - ニューラルネットワークをトレーニングするときのエポックとイテレーション

多層パーセプトロンをトレーニングするときのエポック反復の違いは何ですか?

0 投票する
1 に答える
117 参照

machine-learning - ANNを簡単に説明するリソースはありますか?

多くのウェブサイトやブログでANN(人工ニューラルネットワーク)について説明しているのを見てきましたが、ANNについてあまり知らない人々のための基盤を開発するための段階的な手順を考慮に入れているものはなく、代わりに多くの数学を投入しています。残念ながら、私にとっては非常にとらえどころのないように見えます。たとえば、コンピューターで生成された数字や数字よりもさらに単純なものを認識できる単純なANNプログラムを教えているWebサイト/ブログはありますか?

0 投票する
1 に答える
2595 参照

machine-learning - バックプロパゲーションニューラルネットワークにおける最適な機能対インスタンスの比率

Back Propagation Neural Networkを使用して特定の問題をモデル化するために、Leave-one-outクロス検証を実行しようとしています。トレーニングデータには8つの機能があり、20のインスタンスがあります。NNに予測モデルを構築する機能を学習させようとしています。さて、問題は、予測のエラー率が非常に高いことです。私の推測では、検討中の機能の数と比較すると、トレーニングのインスタンスの数は少ないと思います。この結論は正しいですか。インスタンスに対する最適な機能の比率はありますか?

0 投票する
13 に答える
102927 参照

math - バックプロパゲーション ニューラル ネットワークで非線形活性化関数を使用する必要があるのはなぜですか?

私はニューラルネットワークについていくつか読んでいて、単層ニューラルネットワークの一般原則を理解しています。層を追加する必要があることは理解していますが、非線形活性化関数が使用されるのはなぜですか?

この質問の後に次の質問が続きます:バックプロパゲーションで使用される活性化関数の導関数は何ですか?

0 投票する
2 に答える
439 参照

algorithm - ニューラル ネットワーク -- すべての入力ベクトルで著しく不均一なトレーニングの進行

バックプロパゲーションを使用してトレーニングするフィードフォワード ニューラル ネットワークを実装しています。各テストケースが学習した後にエラー率を出力すると、いくつかのエポックの後、特定のテストケースを非常によく学習し始めますが、他のテストケースは非常に悪く学習し始めます。つまり、特定のテスト ケースではエラーが非常に低く、他のテスト ケースではエラーが非常に高くなります。

基本的に、いくつかのエポックの後、平均二乗誤差が次のパターンに停滞していることに気付きます (各行は、単一のテストケースの後の MSE を表します)。

これが起こっている理由は考えられますか?

最初は、エラー率が高いこれらのケースは異常値である可能性があると考えていましたが、パターンが示すように、それらのケースは多すぎます。学習者が極小値に達したばかりで、そこから抜け出すには勢いが必要なのでしょうか?

0 投票する
4 に答える
56790 参照

machine-learning - 多層パーセプトロン (MLP) アーキテクチャ: 隠れ層の数と隠れ層のサイズを選択する基準は?

10個の固有ベクトルがある場合、入力層に10個のニューラルノードを持つことができます.5つの出力クラスがある場合、出力層に5個のノードを持つことができます.しかし、MLPの隠れ層の数とニューラル数を選択する基準は何ですか? 1つの隠れ層のノード?