問題タブ [grid-search]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 特定の検証データを使用したグリッド検索
K 分割検証を使用せずに、sklearn でハイパーパラメーターをグリッド検索する方法を探しています。つまり、グリッドを特定のデータセット (以下の例では X1、y1) でトレーニングし、特定のホールドアウト データセット (以下の例では X2、y2) で検証する必要があります。
X1,y2 = トレーニング データ
X2,y2 = 検証データ
machine-learning - Scikit Learn の Keras ラッパー - AUC スコアラーが機能しない
パラメータのランダム検索を容易にするために、Keras Scikit Learn Wrapperを使用しようとしています。ここにサンプルコードを書きました:
- 人工的なデータセットを生成します:
moons
から使っていますscikit learn
- モデル ビルダーの定義:
build_fn
必要な機能を定義します:
- パラメータ グリッドの定義:
次に、パラメーター グリッドを定義しました。
- RandomizedSearchCV フェーズ:
私はRandomizedSearchCV
オブジェクトを定義し、人工的なデータセットからの値を当てはめました:
私が得たもの(コンソールでこのコードを実行した後)は次のとおりです。
scoring = "roc_auc"
I used accuracy
metricを使用する代わりに、このコードは正常に機能します。誰が私に何が悪いのか説明できますか? 誰かが同様の問題を抱えていましたか?
python - AUC のグリッド検索検索パラメーター
最高の AUC が得られる SVM のパラメーターを見つけようとしています。しかし、sklearn で AUC のスコアリング関数が見つかりません。誰かがアイデアを持っていますか?ここに私のコードがあります:
では、何に使用できますか??? 高い AUC スコアに最適なパラメータを取得するには?
machine-learning - デシジョン ツリーのデータをスケーリングすると、結果が変わりましたか?
デシジョン ツリーがデータのスケーリングの影響を受けないことはわかっていますが、デシジョン ツリー内でデータをスケーリングすると、パフォーマンスが低下します (再現率、精度、精度が低下します)。
しかし、すべてのパフォーマンス メトリクスをスケーリングしないと、デシジョン ツリーから驚くべき結果が得られます。どうすればいいの?
注: GridSearchCV を使用していますが、クロス検証が問題の原因であるとは思いません。これが私のコードです:
スケール関数 MinMaxScaler() を使用すると、私のパフォーマンスは次のようになります。
ただし、スケーリングなし:
python-2.7 - svm の機械学習 gridsearch
私は、gridsearch によって返される最適な推定量を計算する必要があるプロジェクトを行っていました。
gridsearch オブジェクトを作成した後に予測を行うため、f1_scorer 関数を作成する方法がわかりません。gridsearch がスコアリング方法として使用するため、obj を作成した後に f1_scorer を宣言できません。グリッドサーチ用のこのスコアリング関数を作成する方法を教えてください。
python - scikit-learn: learning_curve、GridSearchCV などの事前適合推定量の複製
sklearn の GridSearchCV、learning_curve などに、基本推定量を複製する代わりにディープコピーさせるにはどうすればよいですか?
もう少し情報:
私のカスタム分類器は、初期化中にパラメーターとして適合基本推定器を取ります。フィッティング中に、基本推定量を使用してより迅速に学習します (ドメイン適応のコンテキストで)。たとえば、GridSearchCV() を使用して分類子のパラメーターを調整すると、分類子は構成ごとに内部的に clone() されます。ただし、 clone() は、パラメーターを複製するだけなので (適合変数は複製しない)、事前適合ベース推定量を保持しません。
よくわかりませんが、これは次のことに多少関連していると思います。
- https://github.com/scikit-learn/scikit-learn/issues/6451そしておそらく
- https://github.com/scikit-learn/scikit-learn/issues/1626
sklearn が解決策を提供しない場合、当面の間、それを回避するためのアイデアはありますか?
python - マルチプロセッシングを使用したネストされた for ループ
Python でのマルチプロセッシングに関して簡単な質問があります。
3 つのパラメーターでかなり大規模なグリッド検索を行っていますが、計算が完了するまでに約 14 時間かかります。マルチプロセッシングを使用して、この実行時間を短縮したいと考えています。
私のコードの非常に単純化された例は次のとおりです。
今、私はマルチプロセッシングの経験がまったくないので、最初の試みは for ループを関数に変更してから、次のようにマルチプロセッシング関数を呼び出すことでした:
ただし、これは pool.map 呼び出しで失敗しました。この関数が反復可能な引数を 1 つしかとらないことは理解していますが、問題を解決する方法がわかりません。また、data_grid 変数が正しく入力されるかどうかについても懐疑的です。この関数から得たい結果は、保存された 2 つのファイルです。1 つはインデックスが a、b、c の値に対応する値の配列として、最後のファイルは a、b、c の値と結果の値を含むリストのリストです (例上記のコードで)
助けてくれてありがとう!
-意思
python - Scikit Learn GridSearchCV fit method ValueError 0サンプルの配列が見つかりました
scikit-learn を使用していくつかの学習曲線を作成しようとしていますが、これはコードです:
私が得ているエラーは次のとおりです。
完全なトレースバックは次のとおりです。
サンプルの形状を印刷すると、次のようになるため、これを理解できません。
私は得ています:
オブジェクトを印刷するcv_stratified
と、次のようになります。
興味深いことに、test_size
パラメーターを変更する0.88
と機能し、これが機能する最高値になります。この値の形状は次のとおりです。
StratifiedKFold
に変更しても機能しますKFold
問題は、test_size
set to に対して0.95
も機能するようにコードを変更する必要があることです。
scikit バージョン 0.17.1 を使用しています。