私scipy.stats.anderson()
は正規分布をテストしていました。私の検定分布は正規分布ではなかったため、teststatistic > 臨界値です。ただし、計算されたすべての臨界値を確認すると、p 値が減少すると臨界値が増加します。つまり、検定の重要度が高いほど (p 値が小さいほど)、重要な値が検定統計量に近くなります。私の意見では、これは逆であるべきです。Anderson Test とその Scipy での実装に詳しい人はいますか?
3720 次
1 に答える
3
前回スポット チェックを行ったとき、scipy.stats.anderson は正しく機能していました。正規分布に対する Anderson-Darling 検定の場合、statsmodels には p 値を返す関数がありますhttp://statsmodels.sourceforge.net/devel/generated/statsmodels.stats.diagnostic.normal_ad.html
臨界値は、特定の有意水準に対するものです。有意水準を小さくしたい場合は、分布の右側の上部の裾にいると仮定して、臨界値を大きくする必要があります。
http://en.wikipedia.org/wiki/Statistical_significance
たとえば、z 検定の場合、正規分布に基づく片側上裾の臨界値は次のようになります。
>>> from scipy import stats
>>> stats.norm.ppf([0.9, 0.95, 0.975])
array([ 1.28155157, 1.64485363, 1.95996398])
対照的に、p 値は、指定された観測値でのテール確率を計算します。観測値が大きいほど、p 値は小さくなります。これは、右側の上部テールの場合です。
あなたの例では、観測値が 10% レベルの臨界値を上回っている場合でも、5% レベルの臨界値を下回っている可能性があります。この場合、5% レベルではなく 10% で帰無仮説を棄却します。
于 2014-03-01T18:30:39.630 に答える