バックグラウンド
L
マルチクラス(マルチラベル)の問題で予測するラベルがあるとしましょう。を使用してOneVsRestClassifier
、L
構築中の分類器があります。LogisticRegression
個々の分類子に使用すると仮定しましょう。
GridSearchCV
(resp. )を使用して最適なハイパー パラメーターを検索する場合RandomizedSearchCV
、以下を実行します。
GridSearchCV( OneVsRestClassifier( LogisticRegression(), ...) ).fit(X, y)
質問
上記のコマンドを実行すると、すべての分類子GridSearchCV
のトレーニング (resp. refit) に使用される最適なハイパー パラメーターのセットが 1 つ得られます。L
したがって、たとえば、 の最適値を取得し、C=10
その値を使用してすべてのL
分類子を再適合させます。
私の質問は、分類器GridSearchCV
ごとに最適なハイパーパラメーターの異なるセットを返さない理由です。L
たとえばlabel0
、最適なC=10
場合label1
、最適なC=0.01
場合、... ? 分類器ごとに 1 つのセットを返すのではなく、ハイパー パラメーターの 1 つのセットを返すことにしたのはなぜですか?
以前の経験
この動作は、各ラベル分類器を「手動で」トレーニングするときに通常得られるものと同じではないため、質問しています。たとえば、何千ものラベルを予測するいくつかのタスクでは、各ラベル分類子を個別にトレーニングし (多数のマシンに分散)、その結果、ラベル分類子ごとに異なる値のハイパー パラメーターを取得します。