2

バックグラウンド

Lマルチクラス(マルチラベル)の問題で予測するラベルがあるとしましょう。を使用してOneVsRestClassifierL構築中の分類器があります。LogisticRegression個々の分類子に使用すると仮定しましょう。

GridSearchCV(resp. )を使用して最適なハイパー パラメーターを検索する場合RandomizedSearchCV、以下を実行します。

GridSearchCV( OneVsRestClassifier( LogisticRegression(), ...) ).fit(X, y)

質問

上記のコマンドを実行すると、すべての分類子GridSearchCVのトレーニング (resp. refit) に使用される最適なハイパー パラメーターのセットが 1 つ得られます。Lしたがって、たとえば、 の最適値を取得し、C=10その値を使用してすべてL分類子を再適合させます。

私の質問は、分類器GridSearchCVごとに最適なハイパーパラメーターの異なるセットを返さない理由です。Lたとえばlabel0、最適なC=10場合label1、最適なC=0.01場合、... ? 分類器ごとに 1 つのセットを返すのではなく、ハイパー パラメーターの 1 つのセットを返すことにしたのはなぜですか?

以前の経験

この動作は、各ラベル分類器を「手動で」トレーニングするときに通常得られるものと同じではないため、質問しています。たとえば、何千ものラベルを予測するいくつかのタスクでは、各ラベル分類子を個別にトレーニングし (多数のマシンに分散)、その結果、ラベル分類子ごとに異なる値のハイパー パラメーターを取得します。

4

0 に答える 0