ロジスティック回帰に関する Coursera の ML クラスと、Manning Book Machine Learning in Action を学習しています。Pythonですべてを実装して学習しようとしています。
コスト関数と勾配の違いがわかりません。人々がコスト関数を計算するネット上の例があり、その後、そうではなく、勾配降下関数を使用するだけの場所がありますw :=w - (alpha) * (delta)w * f(w)
。
もしあれば、2つの違いは何ですか?
ロジスティック回帰に関する Coursera の ML クラスと、Manning Book Machine Learning in Action を学習しています。Pythonですべてを実装して学習しようとしています。
コスト関数と勾配の違いがわかりません。人々がコスト関数を計算するネット上の例があり、その後、そうではなく、勾配降下関数を使用するだけの場所がありますw :=w - (alpha) * (delta)w * f(w)
。
もしあれば、2つの違いは何ですか?
コスト関数は、最小化したいものです。たとえば、コスト関数は、トレーニング セットの二乗誤差の合計である場合があります。勾配降下法は、複数の変数の関数の最小値を見つける方法です。したがって、勾配降下法を使用してコスト関数を最小化できます。コストが K 個の変数の関数である場合、勾配は、コストが最も急速に増加する方向を定義する長さ K のベクトルです。したがって、勾配降下法では、コストが最小になるポイントまで勾配の負に従います。誰かが機械学習のコンテキストで勾配降下について話している場合、おそらくコスト関数が暗示されます (勾配降下アルゴリズムを適用する関数です)。