1

scikit Learnでは、ロジスティック回帰モデルの係数coef_は次元[n_classes-1、n_features]の配列です。

glmnet係数はfit$beta同様の配列ではありません。

例えば:

寸法xMatrix- 63231 X 1223 (トレーニング サンプル数 X 特徴数)

yMatrix- 63231 X 1の次元(トレーニング サンプルの数 X 各サンプルの期待される出力値)。45の異なるクラスがあります。したがって、出力はそれらのいずれかです。

出力係数の次元 (私が理解していることから) = 1223 X 45 (機能の数 X クラスの数)

私はscikit Learnで正しく理解していますが、結果はglmnet異なります

これが私のglmnetコードです:

> dim(x)
[1] 63231  1223
> length(y)
[1] 63231
> unique(sort(y))
 [1]  0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
[26] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
> fit <- glmnet(x,y)                   
> summary(fit)
          Length Class     Mode   
a0            86 -none-    numeric
beta      105178 dgCMatrix S4     
df            86 -none-    numeric
dim            2 -none-    numeric
lambda        86 -none-    numeric
dev.ratio     86 -none-    numeric
nulldev        1 -none-    numeric
npasses        1 -none-    numeric
jerr           1 -none-    numeric
offset         1 -none-    logical
call           3 -none-    call   
nobs           1 -none-    numeric
> dim(fit$beta)
[1] 1223   86

1223 X 45 ではなく 1223 X 86 になるのはなぜですか?

4

0 に答える 0