-1

2 つの関数を比較するために次の例を作成しpairwise.t.test()TukeyHSD()

x <- c(10,11,15,8,16,12,20)
y <- c(10,14,18,25,28,30,35)
z <- c(14,19,35,18,17,16,25)

d <- c(x,y,z)
f <- as.factor(c(rep("a",7), rep("b",7), rep("c",7)))

pairwise.t.test(d, f)
TukeyHSD(aov(d ~ f))

これら 2 つの検定で p 値がこのように異なるのは正常ですか? p値をより等しくするために、両方または1つのテストでパラメーターを調整する方法はありますか?

また、両方のテストvar.equalの場合と同様に、パラメーターはないようです。t.test()それは本当に本当ですか?

4

2 に答える 2

2

pairwise.t.testは、6つの方法のいずれかに従って複数の比較を調整するためにp値を調整します(詳細については、?p.adjustを参照してください)。プールされた標準偏差の代わりに個別の標準偏差の推定値を取得するには、pool.SD=FALSE引数を使用します。分散分析には、TukeyHSD()関数に渡すものである同等のオプションはありません。

于 2012-08-07T02:50:55.043 に答える
2

TukeyHSD のヘルプ ページから:

分散分析で因子のレベルの平均を比較する場合、t 検定を使用した単純な比較では、有意差が実際には存在しない場合でも有意差を宣言する確率が高くなります。これは、間隔が各間隔の特定のカバレッジ確率で計算されるためですが、カバレッジの解釈は通常、間隔のファミリ全体に関するものです。

TukeyHSD 検定は別の検定であり、上記のコメントに基づいて、一般的にはより高い p 値が得られると予想されます。そうは言っても、あなたが提供したデータのp値は、推論の目的で私にとって劇的に異なるようには見えません。

于 2012-08-06T08:37:16.527 に答える