問題タブ [unsupervised-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
neural-network - 自己組織化マップと線形ベクトル量子化
自己組織化マップは、分類よりもクラスタリング (次元削減) に適しています。ただし、SOM は微調整のために線形ベクトル量子化で使用されます。しかし、LVQ は教師あり学習法です。そのため、LVQ で SOM を使用するには、ラベル付けされたトレーニング データ セットを LVQ に提供する必要があります。しかし、SOM はクラスタリングのみを行い、分類は行わないため、データにラベルを付けることができないため、SOM を LVQ の入力として使用するにはどうすればよいでしょうか?
LVQは SOMのクラスターを微調整しますか?
LVQ で使用する前に、ラベル付けされた入力を LVQ で使用できるように入力を分類できるように、SOM を別の分類アルゴリズムにかける必要がありますか?
speech-recognition - 音声認識用のデータセットを準備する方法
個別の音声 (0 から 9 までの個々の数字) を認識するために、双方向 LSTM モデルをトレーニングする必要があります。100 人のスピーカーからの音声を録音しました。次に何をすべきですか?(ファイルごとに 1 つの数値を含む個々の .wav ファイルに分割するとします) ネットワークの機能として mfcc を使用します。
さらに、CTC (Connectionist Temporal Classification) をサポートするライブラリを使用する場合、データセットの違いを知りたいです。
c++ - OpenCV kmean: COUNT と EPS の適切な値を選択する方法は?
OpenCV の kmean 関数を使用して、36000 個のサンプル画像を 100 個以上のクラスに事前分類しようとしています (教師あり学習用のトレーニング データを準備する作業を減らすため)。この関数には、よくわからない 2 つのパラメーターがあります: cv::TermCriteria::EPSと cv::TermCriteria::COUNTです。
cv::TermCriteria::EPS : 反復アルゴリズムが停止するパラメーターの望ましい精度または変更。
cv::TermCriteria::COUNT : 計算する反復または要素の最大数。
上記の説明は、私にはあまり明確ではありません。もっと説明して、COUNT と EPS の適切な値を見つける方法を示すのを手伝ってくれる人はいますか? どうもありがとうございました。
matlab - 独立した隠れたアクティベーションを備えた教師なしニューラル ネットワーク: エントロピーまたは尖度ペナルティを実装する方法は?
簡単に言えば:
教師なしニューラル ネットワークのコストと逆伝播に ICA のようなエントロピーまたは尖度ペナルティ項を実装するにはどうすればよいですか (スタックされたスパース オートエンコーダーを使用しています)。
詳細に:
Andrew Ng の UFLDL チュートリアルに基づいて、Matlab にスパース オートエンコーダー (AE) を共役勾配降下法と Wolfe 直線探索で実装しました。これにより、infomax を使用した独立成分分析 (ICA) よりもはるかにクリーンな結果が得られます (AE の隠れ層の活性化を eeglab の runica 関数の ICA 活性化と比較します)。
しかし、ICA のように、アクティベーションの最大の独立性も、私にとって重要な基準です。だから私はより高品質の sNN 隠しアクティベーションを実現したいのですが、それらを独立させたいと思っています。言い換えれば、スパース性と独立性の両方から恩恵を受けたいのです。
ICA は、エントロピーまたは尖度ペナルティ項を使用して、コンポーネント (アクティベーション) 間の相互情報を最小限に抑えます。
私は単に matlab の goropy または kurtosis 関数を適用しようとしました: 与えられた非表示層の活性化行列 'a' が (outputNeurons*hiddenNeurons) である場合、私は次のようにします:
これは悪い結果をもたらし、独立したアクティベーションはありませんでした。バックプロパゲーションのペナルティの誤差も計算する必要があると思いますが、方法がわかりませんでした。上記のコストペナルティが正しいかどうかもわかりません。
上記のコードを改善するため、または単純な数学用語で正しい方向に向けるためのアイデアはありますか?