問題タブ [unsupervised-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 教師なしクラスタリングに Weka を使用する
次の形式のデータがあります。
つまり、以下のトリプルのリストです。
- X、オブジェクトの名前。
- Y、別のオブジェクトの名前。
- sim(X,Y)、2 つのオブジェクト間の距離を表す実数。
ここで、このデータに教師なしクラスタリング アルゴリズムを適用したいと思います。私はWekaを念頭に置いていましたが、代替案も喜んで検討します.
python-2.7 - StandardScaler() は順序を維持しますか?
トレーニング データセットをクラスタリング モデルに提供する前に、StandardScaler を使用してデータを変換しています。
clf が教師なしクラスター モデルであると仮定すると、次のようにラベルを予測しています。
質問: "y" と "X_train" numpy 配列を組み合わせるにはどうすればよいですか? StandardScaler() がマトリックス内の順序を維持しているかどうかはわかりません。それで、これはうまくいきますか?
artificial-intelligence - k平均の収束とは何ですか?
教師なし学習に関して非常に小さな質問があります。なぜなら、教師はこの言葉をどの講義でも使用していないからです。チュートリアルを読んでいるときにこの単語を見つけました。これは、クラスターの最後の反復で値が初期値と同じである場合、収束と呼ばれることを意味しますか? 例えば
n回の反復を実行した後、c1とc2の両方で値が同じになる場合、つまり最後のn回の反復で(1,0)と(2,1)であり、 single 以外の場合は avg を取ります。収束ですか?
computer-vision - 画像分類のための畳み込みニューラル ネットワークのパラメーターをどのように決定しますか?
画像分類に畳み込みニューラル ネットワーク(特徴を検出するための教師なし特徴学習 + Softmax 回帰分類子) を使用しています。この分野の Andrew NG によるすべてのチュートリアルを確認しました。( http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial )。
私が開発したネットワークには次のものがあります。
- 入力層 - サイズ 8x8 (64 ニューロン)
- 隠れ層 - サイズ 400 ニューロン
- 出力レイヤー - サイズ 3
スパースオートエンコーダーを使用して入力レイヤーを非表示レイヤーに接続する重みを学習したため、400 の異なる機能があります。
任意の入力画像 (64x64) から連続した 8x8 パッチを取得し、それを入力レイヤーに供給することで、サイズ (57x57) の 400 個の特徴マップを取得します。
次に、サイズ 19 x 19 のウィンドウで最大プーリングを使用して、サイズ 3x3 の 400 個の特徴マップを取得します。
この特徴マップをソフトマックス レイヤーにフィードして、3 つの異なるカテゴリに分類します。
隠れ層の数 (ネットワークの深さ) や層ごとのニューロンの数などのこれらのパラメーターは、すべての画像のサイズが 64x64 である 1 つの特定のデータセットで正常に使用されたため、チュートリアルで提案されました。
これを、画像がはるかに大きい(400x400など)独自のデータセットに拡張したいと思います。どうやって決めるの
レイヤーの数。
層ごとのニューロンの数。
プーリング ウィンドウのサイズ (最大プーリング)。
python - theano における畳み込みニューラル ネットワークの教師なし事前トレーニング
1 つ (または複数) の畳み込み層 (CNN) と 1 つまたは複数の完全に接続された隠れ層を上部に持つディープ ネットを設計したいと考えています。
完全に接続されたレイヤーを持つディープ ネットワークの場合、theano には、教師なし事前トレーニング用のメソッドがあります。たとえば、ノイズ除去オート エンコーダーまたはRBMを使用します。
私の質問は次のとおりです。畳み込み層の教師なし事前トレーニング段階を (theano で) 実装するにはどうすればよいですか?
答えとして完全な実装は期待していませんが、優れたチュートリアルまたは信頼できるリファレンスへのリンクをいただければ幸いです。
cluster-analysis - k-means クラスタリング モデルの適切な類似性メトリックの選択
データのクラスタリングに k-means アルゴリズムを使用しています。私は5千のサンプルを持っています。(私のサンプルはそれぞれ顧客に関するものです。顧客の価値を分析するために、4 つの行動特徴に基づいて顧客をクラスター化します。) 距離は、ユークリッド メトリックとピアソン相関を使用して計算されます。
私は知る必要がある
ユークリッド距離が距離またはピアソン相関を計算するための正しい方法かどうかわかりませんか? シルエットを使用してクラスタリングを検証しています。ピアソン相関シルエット値を使用している場合、ユークリッド メトリックを使用している場合よりも多くなります。これは、ピアソン相関が距離メトリックにより適していることを意味するかどうか?