私は機械学習の初心者で、最近、教師ありおよび教師なし機械学習について読みました。教師あり学習は分類と同義であり、教師なし学習はクラスタリングと同義のように見えますが、そうですか?
2 に答える
教師あり学習とは、トレーニング データにラベルを付けた場合です。言い換えれば、メソッドを最適化するための明確に定義されたターゲットがあります。
典型的な (教師あり) 学習タスクは、分類と回帰です。カテゴリ (分類)、数値 (回帰) 値、またはランク (ランク付けの学習) を予測するための学習です。
教師なし学習は奇妙な用語です。ほとんどの場合、メソッドは何も「学習」していないからです。彼らは何から学ぶのでしょうか?トレーニングデータがありませんか?
「学習」パラダイムにうまく適合しない教師なしメソッドがたくさんあります。これには、PCA などの次元削減手法が含まれます (これは、「機械学習」よりはるかに前のものです。PCA は、コンピューターよりもずっと前の 1901 年に提案されました!)。これらの多くは、(パラメーター化された統計ではなく) データ駆動型の統計です。これには、ほとんどのクラスター分析方法、異常値検出などが含まれます...これらを理解するには、「学習」の考え方から抜け出すことをお勧めします。多くの人は、これらのアプローチを理解するのに苦労しています。なぜなら、彼らは学習に共通する「目的関数 f を最小化する」という考え方で常に考えているからです。
たとえば、DBSCAN を考えてみましょう。最も一般的なクラスタリング アルゴリズムの 1 つ。それは学習パラダイムにうまく適合しません。これは、グラフ理論の構成要素である (密度-) 連結成分として適切に解釈できます。しかし、それは目的関数を最適化しません。リレーションの推移閉包を計算します。ただし、最大化または最小化された関数はありません。
同様に、APRIORI は頻繁にアイテムセットを見つけます。minsupp 回を超えて発生するアイテムの組み合わせ。ここで、minsupp はユーザー パラメータです。これは非常に単純な定義です。しかし、大規模なデータがある場合、検索スペースが非常に大きくなる可能性があります。力ずくのアプローチでは、許容できる時間内に終了しません。そのため、APRIORI は巧妙な検索戦略を使用して、不必要なハードディスク アクセス、計算、およびメモリを回避します。しかし、学習に「悪い」「良い」という結果はありません。結果が正しい (完全) かそうでないかのどちらかです - 結果を最適化するものは何もありません (アルゴリズムの実行時のみ)。
これらの方法を「教師なし学習」と呼ぶことは、それらが属していない考え方にそれらを押し込むことです. 彼らは何も「学んでいません」。関数を最適化したり、ラベルを使用したり、あらゆる種類のフィードバックを使用したりしません。データベースから特定のオブジェクトのセットを選択するだけです。APRIORI は、同時に 1 を持つことが多い列を選択します。DBSCAN は、密度グラフで連結要素を選択します。結果が正しいかどうか。
一部の (すべてではない) 教師なしメソッドは、最適化問題として形式化できます。その時点で、それらは一般的な教師あり学習アプローチに似たものになります。たとえば、k-means は最小化問題です。PCA も最小化問題です。実際には、線形回帰と密接に関連しています。しかし、それは逆です。多くの機械学習タスクは最適化問題に変換されます。機械学習で非常に人気のある汎用統計ツール (線形計画法など) で解決できます。すべての「学習」部分は、データがオプティマイザに供給される前に変換される方法にラップされます。また、場合によっては、PCA のように、最適解を計算するための非反復的な方法が見つかりました (1901 年)。したがって、これらの場合、あなたはしません'