問題タブ [rfe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
pandas - スコアを含む RFE を使用して機能をランク付けするための scikit Learn
Scikit Learn を使用して、データフレーム内の各機能の重要性を見つけたいと考えています。
スコアとその横にある機能名を提供するWEKAソフトウェアを介してInfo Gainを使用する代わりに、Scikit Learnで使用しようとしています。
次の方法を実装したのですが、順位番号をスコアに置き換える方法がわかりません。
例えば:
見たくない:
- 特徴6
- 特徴4
...
ただし、私は次のことを好みます。
0.4 機能 6
0.233 機能 4
...
これが私の方法です:
誰かがランキングからスコアに変換する方法を知っていますか?
r - sbf() はメトリック引数を使用してモデルを最適化しますか?
関数に引数値ROC
として渡すmetric
caretSBF
私たちの目的は、ROC サマリー メトリックをモデル選択に使用する一方で、sbf()
機能選択のためにフィルタリングによる選択関数を実行することです。
データセットは、パッケージから実行までBreastCancer
の再現可能な例として使用され、mlbench
train()
sbf()
metric = "Accuracy"
metric = "ROC"
モデルを最適化するために、および関数によって適用される引数を確実に取得する必要sbf()
があります。この目的のために、関数で関数を使用することを計画しました。関数は を呼び出し、に渡されます。metric
train()
rfe()
train()
sbf()
caretSBF$fit
train()
caretSBF
sbfControl
出力から、引数は一部ではなく、metric
単に使用されているようです。つまり、出力の では、引数はとで使用されているように適用されませんでした。inner resampling
sbf
outer resampling
metric
train()
rfe()
caretSBF
which uses を使用してきtrain()
たように、metric
引数のスコープは に限定されているtrain()
ため、 には渡されないようsbf
です。
モデルを最適化するために引数をsbf()
使用するかどうか、つまり?metric
outer resampling
train()
これは、metric
再現可能な例に関する私たちの作業です。Accuracy
ROC
sbf
I. データセクション
Ⅱ.カスタマイズされた要約機能
fiveStats 集計関数の定義
III. 列車区間
trControl の定義
TRAIN + METRIC = 「精度」
列車 + メートル法 = "ROC"
IV. キャレットSBFの編集
キャレットSBF要約機能の編集
V. SBF セクション
sbfControl の定義
SBF + METRIC = 「精度」
SBF + メトリック = "ROC"
引数をsbf()
使用してモデルを最適化しますか? metric
はいの場合、デフォルトとして何を使用しmetric
ますsbf()
か? sbf()
引数を使用する場合metric
、どのように設定しROC
ますか?
ありがとう。
python - RFE にステップインし、「DataFrame オブジェクトは呼び出し可能ではありません」というエラーが表示される
初めて RFE を使用しようとしていますが、「DataFrame オブジェクトは呼び出し可能ではありません」というエラーに頭を悩ませています。
これが私のコードです
49 個の機能を含むデータセットを見ています。探している出力は、これらの機能のどれを保持し、どれを除外するかです。
誰かがこれをRFECVに入れる方法を理解するのを手伝ってくれるなら、ボーナスポイント!
python - 反復 RFE スコア sklearn
回帰問題で SupervisedFeatureSelection を作成するために、ExtraTreeRegressor を推定量として RFE を使用しています。
以下の共通コードを使用して、モデルからランキングとサポートを取得します。
私が知りたいのは、より深い情報、つまりRFEの各反復でのスコアまたは機能評価です。_fit のようないくつかの隠し関数があることに気付き、step_score パラメーターを強制的に none とは異なるものにしようと考えています... ポイントは、私が望むものに到達できないことです.. (私はpythonが初めてです...)反復ごとにスコアの出力を取得したいと思います。そのような作業の経験がある人はいますか? step_score パラメータの適切な値は? (ブール値で試しましたが、うまくいきません)
アドバイスをありがとう!!!
python - 選択された特徴の数が異なる場合でも同じ精度を与える RFE
プログラムでは、2.5 秒ごとに 40 x 64 x 64 の画像の時系列で取得された多数の脳サンプルをスキャンしています。したがって、各画像の「ボクセル」(3D ピクセル) の数は ~ 168,000 っぽい (40 * 64 * 64) であり、それぞれが画像サンプルの「機能」です。
Recursive Feature Elimination (RFE) を使用することを考えました。次に、次元削減を実行するために n が非常に高いため、これを主成分分析 (PCA) でフォローアップします。
予測するクラスは 9 つあります。したがって、マルチクラスの分類問題です。RFE から始めます。
ここで PCA を実行します。
SVM を使用して削減されたコンポーネント データセットをトレーニングする
次に、トレーニング セットを RFE-PCA 削減に変換し、予測を行います
データのサブセットに対してトレーニングしたところ、76.92%が得られました。データセットの 1/12 に対してのみトレーニングされるため、数値が低いことはあまり心配していません。
トレーニング サイズを 2 倍にしてみましたが、92%の精度が得られました。これはかなり良いです。しかし、データセット全体に対してトレーニングを行ったところ、92.5%の精度が得られました。
したがって、データセットが 6 倍に増加したため、精度が 0.5% 向上しました。さらに、データ サンプルにはノイズがありません。したがって、サンプルに問題はありません。
また、データセットのトレーニング サイズの 1/12 では、n_features_to_select = 1000 を選択すると、同じ 76.92% が得られます (20000 でも同じです!!) RFE の実行中。ここに何か問題があるに違いありません。このように少ない数の機能を選択しても同じパフォーマンスが得られるのはなぜですか?
python - scikit-learn での回帰の相互検証による再帰的機能の除去
scikit-learn を使用した回帰問題に Recursive Feature Elimination のようなラッパー メソッドを適用したいと考えています。相互検証を使用した再帰的な機能の除去は、機能の数を自動的に調整する方法についての良い概要を提供します。
私はこれを試しました:
しかし、次のようなエラーメッセージが表示されます
警告は分類の問題があるように聞こえますが、私のタスクは回帰の問題です。結果を得るにはどうすればよいですか?何が問題なのですか?