モデルの R および SAS からの GLM 出力をガンマ分布と比較しています。点推定値は同じですが、標準誤差の推定値が異なるため、p 値が異なります。
誰かが理由を知っていますか?R と SAS が異なる方法を使用して標準誤差を推定するかどうか疑問に思っていますか? 多分MLE対モーメント法?
R サンプル コード
set.seed(2)
test = data.table(y = rnorm(100, 1000, 100), x1 = rnorm(100, 50, 20), x2 = rgamma(100, 0.01))
model = summary(glm(formula = y ~ x1+x2 , family = Gamma(link = "log"), data = test))
ここで生成された同じデータを使用して、次のコードを使用して SAS でモデルを実行しました。
proc genmod data= test_data;
model y = x1 x2 /link= log dist= gamma;
run;
R からの出力は次のとおりです。
Call:
glm(formula = y ~ x1 + x2, family = Gamma(link = "log"), data = test)
Deviance Residuals:
Min 1Q Median 3Q Max
-0.26213 -0.08456 -0.01033 0.08364 0.20878
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 6.9210757 0.0324674 213.170 <2e-16 ***
x1 -0.0003371 0.0005985 -0.563 0.575
x2 0.0234097 0.0627251 0.373 0.710
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for Gamma family taken to be 0.01376099)
Null deviance: 1.3498 on 99 degrees of freedom
Residual deviance: 1.3436 on 97 degrees of freedom
AIC: 1240.6
Number of Fisher Scoring iterations: 4