問題タブ [cross-validation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - Rでleave-one-out交差検証を使用してAUCを取得するには?
100 個のサンプル (行) と 10000 個の独立した機能 (列) を含むマトリックス (x) があります。観測値は、サンプルが良いか悪いかのバイナリです {0,1} (ベクトル y に格納されます)。クロスバリデーションを除外して実行し、各機能の曲線下面積 (AUC) を個別に決定したいと考えています (CAtools パッケージの colAUC のようなもの)。glmnet を使用しようとしましたが、うまくいきませんでした。マニュアルに記載されているように、nfold パラメータを観測数 (100) に等しくなるように設定しようとしました。
そして、私はこれらの警告を受けています:
私が間違っていることはありますか?また、各機能のLOOバランスの取れたAUC値を取得する他の方法またはRパッケージはありますか?
どんな助けでも本当に感謝します。ありがとうございました!
r - Rでpls関数を使用したクロス検証
私は R を初めて使用し、MARS 回帰の相互検証のために (stackoverflow のおかげで) 次のコードを使用しようとしています。コードを実行するとエラーが発生します。
上記の質問に加えて、相互検証の結果をすべて出力する方法はありますか?
誰か助けていただければ幸いです。
r - k分割交差検証 - 予測を自動的に取得する方法は?
これはばかげた質問かもしれませんが、それを行うためのパッケージが見つかりません...必要なものを取得するためにいくつかのコードを書くことができることは知っていますが、それを自動的に行う機能があると便利です!
したがって、基本的には、glm モデルの k 分割交差検証を実行したいと考えています。各検証セットの予測と実際の値も自動的に取得したいと考えています。したがって、10 倍の CV を実行している場合、実際の応答と予測をすべてまとめて 10 個の検証セットを返す関数が必要です。
前もって感謝します!
r - キャレットを使用した train() 関数とレート モデル (オフセット付きポアソン回帰)
glm()
(オフセットのあるポアソンリンクなどを使用してレートモデルを適合させました
この場合の応答ですy/x1
)。
次に、キャレットパッケージを使用して相互検証を行いたかったので、 k倍の CV 制御で「train()」関数を使用しました。私が持っている2つのモデルは非常に異なっていることがわかりました。train()
を処理できないようですoffset
:内の変数offset
をoffset(log(log(x1))
orに変更しますoffset(log(sqrt(x1))
が、モデルは同じままです。
以前にこの種の経験をしたことがある人はいますか?どのように対処しましたか? ありがとう!
ところで、各検証セットで予測を保存したいので、これまでのところ、キャレットがそれを実行できることしか知りません。そのため、cv.glm を使用することを選択しませんでした。
r - R による相互検証の精度
R の e1071 (svm) パッケージを使用しています。cross
ビルダー メソッドにパラメーターを指定すると、クロス検証が行われ、最適なモデルが選択されます。ただし、相互検証を手動で行うと、フォールドごとに構築されたすべてのモデルの精度が得られます。選択したモデルの正解率を e1071 パッケージで取得する方法はありますか?
python - scikit-learn の LogisticRegression の GridSearchCV
交差検証グリッド パラメーター検索を使用して、scikit-learn でロジスティック回帰関数を最適化しようとしていますが、実装できないようです。
Logistic Regression は get_params() を実装していないと書かれていますが、ドキュメントには実装されていると書かれています。グラウンド トゥルースでこの関数を最適化するにはどうすればよいですか?
machine-learning - クロスバリデーション - Weka API
Weka API を使用して 10 分割交差検証による分類モデルを作成するにはどうすればよいですか? これは、相互検証を実行するたびに新しい分類モデルが作成されるためです。テスト データではどの分類モデルを使用すればよいですか?
python - 「スカラー変数への無効なインデックス」 - Scikit Learn の「accuracy_score」を使用する場合
何が間違っているのか正確にはわかりません。ただし、私の目標は、相互検証の Python コードを確立することです。いろいろな指標があることは承知していますが、正しいものを使っていると思います。目的の CV10 の結果を得る代わりに、次のエラーが表示されます。
「スカラー変数への無効なインデックス」
StackOverflow でこれを見つけました: IndexError: numpy.int64 や numpy.float64 などの numpy スカラーにインデックスを付けようとすると、スカラー変数への無効なインデックスが発生します。これは TypeError: 'int' object has no attribute '_ getitem _'に非常に似ています。
どんな助けでも大歓迎です...
私はフォローしようとしています:: http://scikit-learn.org/stable/modules/model_evaluation.html
cross-validation - 交差検証とグリッド検索の違いは何ですか?
簡単に言えば、交差検証とグリッド検索の違いは何ですか? グリッド検索はどのように機能しますか? 最初に相互検証を行い、次にグリッド検索を行う必要がありますか?