問題タブ [lasso-regression]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - LASSO からの予測係数は、大きなサンプルの係数の正しいヘッダーを表示できません
102 個の予測子を持つデータセットに対して LASSO を使用して回帰を実行しています。データセットは正しく読み取られ、names(murder) は正しいヘッダーを提供します。
cv.glmnet から最適なラムダを取得した後、最適なラムダを使用して係数を予測したいと思います。ただし、結果は 26 番目の係数以降のヘッダー名が変更され、係数のヘッダーは 26 番目の係数をコピーして末尾に 5 桁の数字が追加されます。以下に示すように、OtherPerCapxxxxx にちなんだ残りの 77 個の係数の名前を付けます。デフォルトで predict(.. type="coefficients") は最大 26 個の係数のヘッダーしか保存できないためですか? どうもありがとう。
r - GLM 後のなげなわ
少しロジスティック回帰を行った後、ラッソ回帰を実行しようとしていますが、さまざまなコマンドを入力すると、オブジェクトが見つからないというエラーが発生し続けますこれまでのコードは次のとおりです
それは私に与えます
明らかに、次を使用してロジスティック式を呼び出すことができます
したがって、基本的にLASSO(ロジットを使用)を実行し、その後に係数と素敵なグラフを取得するための次のステップは何ですか
私のような初心者を混乱させるパッケージがいくつかあります
前もって感謝します
マイケル
lambda - LASSO 回帰ファミリの最大および最小ペナルティ
グループラッソ回帰でペナルティラムダを調整しようとしていますが、それについてはわかりません。x、入力、および y、応答に基づくラムダの最大値と最小値に関する理論または規則はあるのでしょうか? ペナルティ b/c の最小値と最大値を決定するための自動手順が必要10 thousands of response variables
ですmore than 500 independent variables
。誰かが私を助けてくれれば幸いです。私は回帰分野の初心者です。
ありがとう。
r - Rで制約付き非線形最小二乗をどのように行いますか
R で非線形最小二乗モデルをフィッティングしています。$(Y - f(Xb))^2$ を最小化したいと考えています。ここで、$f$ は非線形の単調な微分可能な関数であり、$X$ は一連の機能であり、$ b$ はパラメーター ベクトルです。$b$ に制約を付けてこれを行う方法はありますか? $b$ を 0 よりも大きくなるように制約したいのですが、一部の要素を L1 スタイルで縮小して 0 にしたいと考えています。R でこれを行う方法はありますか? nls()
制約を許可しません。
lasso-regression - LOOCV 法を使用した異なるモデルの比較
LOOクロス検証を使用して、異なるモデル(OLS、BEST SUBSET、RIDGE、LASSO、PCR、およびPLS)を比較する必要があります(比較基準はテストMSEです)。誰かがそれを行う方法を説明してもらえますか (おそらくサンプル データセットを使用して)? Rコードが必要です。皆さん、ありがとうございました!
PS : 私の英語で申し訳ありませんが、私は別の言語を話します。
わかりました、「キャレット」パッケージを使用しようとしました:
パラメータ lambda、ncomp、nvmax を設定するにはどうすればよいですか? 皆さん、ありがとうございました!
r - R で凡例が正しくない理由
Rのmsgpsパッケージを使用して、変更されたアイリスデータセットで回帰を試みています:
伝説は明らかに間違っています。メインのグラフにはない赤い破線があります。メイン グラフには、凡例にはない水色の線があります。問題はどこだ?ご協力いただきありがとうございます。
regression - GLMで正則化された回帰(なげなわに似ています)を使用できますか
私は少し混乱しています。Lasso または ridge 回帰は、正規化された線形回帰です。ロジスティック回帰などのGLMで使えますか?ロジスティック回帰では、MLE を使用して係数を推定しましたが、正則化項をどのように追加するのでしょうか? 係数を推定するアルゴリズムは何ですか?OLSを使用していないため
r - glmnet からモデルを選択した後、段階的アルゴリズムで BIC によってモデルを選択します
観測n
数が変数の数よりも小さいデータがありますp
。回答変数はバイナリです。例えば:
このデータにロジスティック モデルを当てはめたいと思います。だから私はコードを使用しました:
この関数は、さまざまな $\lambda$ 値 ( LASSO回帰のペナルティ パラメーター) に対して 100 個のモデルを返します。n - 1
パラメータも少ない(観測数よりも少ない)最大のモデルを選択したいと思います。選択したモデルがlambda_opt
.
ここで、2 番目のステップを実行したいと思いstep
ます。モデルに関数を使用して、BIC - ベイジアン情報量基準の観点から最適なサブモデルを選択します。残念ながら、関数はクラスstep
のオブジェクトに対しては機能しません。glmnet
どうすればそのような手順を実行できますか? glmnet
この特定のクラス ( ) に対して、私がやりたいことを行う他の関数はありますか?