問題タブ [dimensionality-reduction]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - チャネル/機能の徹底的な選択における次元削減
私のデータは、16 チャネル x 128 サンプル x 400 トライアルで構成されています。このデータセットで徹底的なチャネル選択を実行したい。PCA はどこに適用すればよいですか?
neural-network - このオートエンコーダー ネットワークを適切に機能させることができません (畳み込みレイヤーと maxpool レイヤーを使用)
オートエンコーダーネットワークは、通常の分類子 MLP ネットワークよりも複雑なようです。ラザニアを使用して何度か試みた後、再構成された出力で得られるものはすべて、入力数字が実際に何であるかを区別せずに、 MNISTデータベースのすべての画像のぼやけた平均によく似たものです。
私が選択したネットワーク構造は、次のカスケード層です。
- 入力レイヤー (28x28)
- 2D 畳み込み層、フィルター サイズ 7x7
- 最大プーリング層、サイズ 3x3、ストライド 2x2
- 密な (完全に接続された) 平坦化層、10 単位 (これがボトルネックです)
- 高密度 (全結合) レイヤー、121 ユニット
- レイヤーを 11x11 に変形
- 2D 畳み込み層、フィルター サイズ 3x3
- 2D アップスケーリング レイヤー係数 2
- 2D 畳み込み層、フィルター サイズ 3x3
- 2D アップスケーリング レイヤー係数 2
- 2D 畳み込み層、フィルター サイズ 5x5
- 機能最大プーリング (31x28x28 から 28x28 へ)
すべての 2D 畳み込み層には、バイアスが解かれ、シグモイド活性化と 31 個のフィルターがあります。
すべての全結合層にはシグモイド活性化があります。
使用される損失関数は二乗誤差であり、更新関数はadagrad
です。学習用のチャンクの長さは、1000 エポックを掛けた 100 サンプルです。
完全を期すために、次のコードを使用しました。
このネットワークを改善して、合理的に機能するオートエンコーダーを取得する方法についてのアイデアはありますか?
python - 行列での次元削減の使用
教師あり学習の場合、私のマトリックス サイズは非常に大きく、その結果、特定のモデルのみが実行に同意します。PCA は次元を大幅に削減するのに役立つと読みました。
以下は私のコードです:
サイズが (202180x9984) 程度なので、matrix_tmp に PCA を適用したいと考えています。コードを変更してそれを含めるにはどうすればよいですか?
scikit-learn - Sklearn PCA は自動的に n_components を設定します
次のコードで Sklearn PCA を使用して、5000-D データを 32-D に削減しようとしています。
上記のコードで、形状 (10,10) (10 次元の 10 サンプル) の newData を取得しました。PCA について私が理解しているのは、形状 (10,32) の newData になるはずですが、ここではそうではないということです。入力データ (arr) を 50 サンプルに変更すると、期待どおりの形状 (50,32) の newData が得られました。その値が指定された n_components (この場合は 32) より小さい場合、sklearn は自動的に n_components を min(num_samples,num_dimension) に設定するようです。
これの目的は何ですか?
python-3.x - Python での独立成分分析 (ICA)
独立成分分析 (ICA) を実行するための Python で利用可能なパッケージはありますか?
同じことをpythonから始めることができるように、いくつかのポインタとリンクを提供してください。