問題タブ [unsupervised-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - ベクトルのセットから表現を学習する
現在、次の問題に取り組んでいます。共通のエンティティ(オブジェクトやイベントなど)のさまざまなインスタンスを記述する一連の特徴ベクトル(実数値)があります。これらのベクトルを使用して、このエンティティの一般的な表現(ベクトル)を学習したいと思います(同じベクトル空間または縮小されたもの)。
最も簡単な解決策は、算術平均を使用することです。しかし、他の解決策も提案できるかどうか疑問に思いました。
matlab - MATLABでANFISメンバーシップ関数の上限と下限を拡張する方法は?
MATLAB に ANFIS を実装しようとしています。入力データの操作範囲は 0 ~ 180 ですが、MATLAB は ANFIS メンバーシップ関数の制限を 0 ~ 10 以内で生成します。0 から 180 に拡張するにはどうすればよいですか? また、別の問題は、私のANFIS入力データが「data = [80 20 40 50 15];」のようなものであることです。入力のため、出力メンバーシップ関数が正しく表示されません。これらの問題を解決するのを手伝ってください。
algorithm - 特定のシーケンス内の 3 つの要素からパターンをプログラムで見つける方法はありますか?
いくつかのコンテキスト
Facebookで数学ミームに直面していることに気づきました(笑わないようにしてください):
明らかに、これは単純な問題であり、最初に各数値を 2 次元グリッド内の要素であるかのように見てから、減算を使用して変化を見つけることで解決できます。直感的には、この場合、誰もが架空のグリッドの一番上から始めて、最初に行を線形セットとして評価して問題を分析するだろうと確信しています。
変化とは、2 つの要素の違いです。要素が 2 つしかなく、それら 2 つの要素の直後に何が来るかを予測する必要がある場合は、開始時の数値の差をシーケンスの左端の要素に追加することをお勧めします (推測しています)。
質問
私が頭を抱えるのに苦労している問題は、推論プロセスです.プロセス全体は漠然としていて、体系化するには生来的すぎるようです. どうやって答えを思いついたのですか?私の脳は特別な操作をしていたのでしょうか? もしそうなら、操作は何ですか?すべての行と列を調べずに、線形セットを 1 つだけ選択して、3 つの数値間の関係をどのように見つけるのでしょうか? 各要素間の関係を正確に推測する方法はありますか? そうでない場合、可能性のあるパターンを結論付けようとする適切な試みを行うために存在する必要がある要素の最小数はありますか?
私は、コンピュータが教師なしで学習する際に、このプロセスを経ることを余儀なくされていることを理解しています.また、人工知能の分野は比較的新しく未開発であることも知っているので、絶対的な答えを期待していません. 線形セットの 3 つの要素からパターンを見つけることが可能である場合、私はさらに良いアプローチを求めています。おそらく、この質問をすることで、かなり具体的な関連検索クエリを集めることができるでしょう。
python - Drawing clustered graphs in Python
I already have a way of clustering my graph, so the process of clustering isn't the issue here. What I want to do is, once we have all the nodes clustered - to draw the clustered graph in Python, something like this:
I looked into networkx, igraph and graph-tool, but they seem to do the clustering, but not the drawing. Any ideas and propositions of what library should I use for drawing the already clustered graph, which will minimize the number of crossing links?
machine-learning - 実数値データの制限付きボルツマンマシン - ガウス線形単位 (glu) -
制限付きボルツマン マシンに実数値データの新しい表現を学習させたい (参照: Hinton - 2010 - A Practical Guide to Training RBMs )。ガウス線形単位の実装に苦労しています。
可視層にガウス線形単位があると、エネルギーは に変化しE(v,h)= ∑ (v-a)²/2σ - ∑ bh - ∑v/σ h w
ます。Contrastive Divergence Learning Algorithm を変更する方法がわかりません。可視ユニットは線形であるため、これ以上サンプリングされません。状態として期待値 (平均化活性化)p(v_i=1|h)= a +∑hw + N(0,1)
を使用します。関連付けは変更されません ( pos: data*p(h=1|v)'
neg: p(v=1|h)*p(h=1|v)'
)。しかし、これはデータを再構築したい場合にのみランダムノイズにつながります。エラー率は 50% 前後で改善しなくなります。
最後に、両方のレイヤーでガウス線形単位を使用したいと考えています。隠しユニットの状態を取得するにはどうすればよいですか?平均場活性化を使用することをお勧めしますp(h_i=1|v)= b +∑vw + N(0,1)
が、よくわかりません。
python - Pythonで重複するクラスターをプロットする方法
Fuzzy C-means クラスタリング アルゴリズムから取得したクラスタの視覚化をプロットしようとしています。k-means で取得したような鮮明なクラスターを使用すると、matplotlib で取得したような通常の散布図で簡単に視覚化できます。あいまいなクラスターをプロットしてオーバーラップを視覚化する推奨される方法はありますか? はいの場合、どのように?
python - Python の共クラスタリング アルゴリズム
Python の共クラスタリング アルゴリズムで使用できる実装はありますか? scikit-learn パッケージには k-means と階層的クラスタリングがありますが、このクラスのクラスタリングが欠けているようです。
machine-learning - 教師なし関心領域とバッグ オブ ワード モデルの相違点と類似点
タイトルが示すように、関心領域の教師なし学習とコンピューター ビジョンのバッグ オブ ワード モデルの類似点と相違点は何ですか。
参照-
教師なし ROI の場合: http://www.cs.cmu.edu/~gunhee/publish/nips09_gunhee.pdf
言葉モデルのバッグ: http://people.csail.mit.edu/fergus/iccv2005/bagwords.html
ありがとう。
python - ラベルの伝播 - 配列が大きすぎます
半教師付き分類のために scikit Learn でラベル伝搬を使用しています。7 つのディメンションを持つ 17,000 のデータ ポイントがあります。このデータセットでは使用できません。numpy big array エラーがスローされます。ただし、200 ポイントなどの比較的小さなデータ セットで作業する場合は問題なく動作します。誰でも修正を提案できますか?