8

R非常に特定の問題のために作成した対数尤度関数を最小化するために、ニュートンラプソンアルゴリズムを使用しようとしています。正直言って、推定方法は頭上にありますが、私の分野(心理測定学)の多くの人がNRアルゴリズムを使って推定していることを知っているので、少なくともそもそもこの方法を使おうとしています。特定のデータベクトルの対数尤度推定としてスカラーを返す一連の入れ子関数があります。

log.likelihoodSL <- function(x,sxdat1,item) {
  theta <- x[1]
  rho <- x[2]
  log.lik <- 0
  for (it in 1:length(sxdat1)) {
    val <- as.numeric(sxdat1[it])
    apars <- item[it,1:3]
    cpars <- item[it,4:6]
    log.lik <- log.lik + as.numeric(log.pSL(theta,rho,apars,cpars,val))
  }
  return(log.lik)
}

log.pSL <- function(theta,rho,apars,cpars,val) {
  p <- (rho * e.aSL(theta,apars,cpars,val)) + ((1-rho) * e.nrm(theta,apars,cpars,val))
  log.p <- log(p)
  return(log.p)
}

e.aSL <- function(theta,apars,cpars,val) {
  if (val==1) {
    aprob <- e.nrm(theta,apars,cpars,val)
  } else if (val==2) {
    aprob <- 1 - e.nrm(theta,apars,cpars,val)
  } else
    aprob <- 0
  return(aprob)
}

e.nrm <- function(theta,apars,cpars,val) {
  nprob <- exp(apars*theta + cpars)/sum(exp((apars*theta) + cpars))
  nprob <- nprob[val]
  return(nprob)
}

これらの関数はすべて、提示された順序で順番に相互に呼び出します。最高の関数の呼び出しは次のとおりです。

max1 <- maxNR(log.likelihoodSL,grad=NULL,hess=NULL,start=x,print.level=1,sxdat1=sxdat1,item=item)

sxdat1入力データのサンプルを次に示します(この場合はこれを呼び出します)。

> sxdat1
 V1  V2  V3  V4  V5  V6  V7  V8  V9 V10 V11 V12 V13 V14 V15 V16 V17 V18 
  2   1   3   1   3   3   2   2   3   2   2   2   2   2   3   2   3   2 
V19 V20 
  2   2 

そしてここに変数がありますitem

> item
             V1        V2         V3           V4         V5        V6
 [1,] 0.2494625 0.3785529 -0.6280155 -0.096817808 -0.7549263 0.8517441
 [2,] 0.2023690 0.4582290 -0.6605980 -0.191895013 -0.8391203 1.0310153
 [3,] 0.2044005 0.3019147 -0.5063152 -0.073135691 -0.6061725 0.6793082
 [4,] 0.2233619 0.4371988 -0.6605607 -0.160377714 -0.8233197 0.9836974
 [5,] 0.2257933 0.2851198 -0.5109131 -0.044494872 -0.5970246 0.6415195
 [6,] 0.2047308 0.3438725 -0.5486033 -0.104356236 -0.6693569 0.7737131
 [7,] 0.3402220 0.2724951 -0.6127172  0.050795183 -0.6639092 0.6131140
 [8,] 0.2513672 0.3263046 -0.5776718 -0.056203015 -0.6779823 0.7341853
 [9,] 0.2008285 0.3389165 -0.5397450 -0.103565987 -0.6589961 0.7625621
[10,] 0.2890680 0.2700661 -0.5591341  0.014251386 -0.6219001 0.6076488
[11,] 0.3127214 0.2572715 -0.5699929  0.041587479 -0.6204483 0.5788608
[12,] 0.2697048 0.2965255 -0.5662303 -0.020115553 -0.6470669 0.6671825
[13,] 0.2799978 0.3219374 -0.6019352 -0.031454750 -0.6929045 0.7243592
[14,] 0.2773233 0.2822723 -0.5595956 -0.003711768 -0.6314010 0.6351127
[15,] 0.2433519 0.2632824 -0.5066342 -0.014947878 -0.5774375 0.5923853
[16,] 0.2947281 0.3605812 -0.6553092 -0.049389825 -0.7619178 0.8113076
[17,] 0.2290081 0.3114185 -0.5404266 -0.061807853 -0.6388839 0.7006917
[18,] 0.3824588 0.2543871 -0.6368459  0.096053788 -0.6684247 0.5723709
[19,] 0.2405821 0.3903595 -0.6309416 -0.112333048 -0.7659758 0.8783089
[20,] 0.2424331 0.3028480 -0.5452811 -0.045311136 -0.6360968 0.6814080

関数を最小化したい2つのパラメーターlog.likelihood()はthetaとrhoであり、thetaを-3から3の間に、rhoを0から1の間に制限したいのですが、これを行う方法がわかりません。現在の設定。誰かが私を助けることができますか?ニュートンラプソン法とは異なる推定法を使用する必要がありますか、それとも現在使用してmaxNRいるパッケージの関数を使用してこれを実装する方法はありますか?maxLikありがとう!

x編集:パラメーターthetaおよびrhoの開始値を含むベクトルは、それがc(0,0)これらのパラメーターの「平均」または「デフォルト」の仮定であるためです(実質的な解釈の観点から)。

4

1 に答える 1

8

より便利な形式のデータ:

sxdat1 <- c(2,1,3,1,3,3,2,2,3,2,2,2,2,2,3,2,3,2,2,2)
item <- matrix(c(
0.2494625,0.3785529,-0.6280155,-0.096817808,-0.7549263,0.8517441,
0.2023690,0.4582290,-0.6605980,-0.191895013,-0.8391203,1.0310153,
0.2044005,0.3019147,-0.5063152,-0.073135691,-0.6061725,0.6793082,
0.2233619,0.4371988,-0.6605607,-0.160377714,-0.8233197,0.9836974,
0.2257933,0.2851198,-0.5109131,-0.044494872,-0.5970246,0.6415195,
0.2047308,0.3438725,-0.5486033,-0.104356236,-0.6693569,0.7737131,
0.3402220,0.2724951,-0.6127172,0.050795183,-0.6639092,0.6131140,
0.2513672,0.3263046,-0.5776718,-0.056203015,-0.6779823,0.7341853,
0.2008285,0.3389165,-0.5397450,-0.103565987,-0.6589961,0.7625621,
0.2890680,0.2700661,-0.5591341,0.014251386,-0.6219001,0.6076488,
0.3127214,0.2572715,-0.5699929,0.041587479,-0.6204483,0.5788608,
0.2697048,0.2965255,-0.5662303,-0.020115553,-0.6470669,0.6671825,
0.2799978,0.3219374,-0.6019352,-0.031454750,-0.6929045,0.7243592,
0.2773233,0.2822723,-0.5595956,-0.003711768,-0.6314010,0.6351127,
0.2433519,0.2632824,-0.5066342,-0.014947878,-0.5774375,0.5923853,
0.2947281,0.3605812,-0.6553092,-0.049389825,-0.7619178,0.8113076,
0.2290081,0.3114185,-0.5404266,-0.061807853,-0.6388839,0.7006917,
0.3824588,0.2543871,-0.6368459,0.096053788,-0.6684247,0.5723709,
0.2405821,0.3903595,-0.6309416,-0.112333048,-0.7659758,0.8783089,
0.2424331,0.3028480,-0.5452811,-0.045311136,-0.6360968,0.6814080),
               byrow=TRUE,ncol=6)

使用maxNR

library(maxLik)
x <- c(0,0)
max1 <- maxNR(log.likelihoodSL,grad=NULL,hess=NULL,start=x,
              print.level=1,sxdat1=sxdat1,item=item)

rhoネガティブにさまようときに発生する警告に注意してください。ただし、maxNRこれから回復して、実行可能セットの内部にある推定値(theta = -1、rho = 0.63)を取得できます。 L-BFGS-B非有限の中間結果を処理することはできませんが、境界により、アルゴリズムはこれらの問題のある領域から遠ざけられます。

bbmle私はこれをinではなくで行うことを選択しましたoptim:尤度推定に固有のいくつかの優れた機能(プロファイリング、信頼区間、モデル間の尤度比検定など)を提供する(および他の最適化ツール)のbbmleラッパーです。optim

library(bbmle)

## mle2() wants a NEGATIVE log-likelihood
NLL <- function(x,sxdat1,item) {
    -log.likelihoodSL(x,sxdat1,item)
}

編集:以前のバージョンcontrol=list(fnscale=-1)では、最小化ではなく最大化する必要がある対数尤度関数を渡していることをオプティマイザーに通知していました。これは正しい答えになりますが、パッケージがこの可能性を考慮していないため、結果を使用しようとすると非常に混乱する可能性があります(たとえば、報告された対数尤度の符号が間違っている)。これはパッケージで修正できますが、それだけの価値があるかどうかはわかりません。

## needed when objective function takes a vector of args rather than
##  separate named arguments:
parnames(NLL) <- c("theta","rho")
(m1 <- mle2(NLL,start=c(theta=0,rho=0.5),method="L-BFGS-B",
     lower=c(theta=-3,rho=2e-3),upper=c(theta=3,rho=1-2e-3),
     data=list(sxdat1=sxdat1,item=item)))

ここにいくつかのポイント:

  • rho=0.5境界ではなくで開始
  • rho[0,1]の少し内側に境界を設定します(L-BFGS-B導関数の有限差分近似を計算するときに、境界を常に完全に尊重するとは限りません)
  • data引数に入力データを指定しました

この場合、と同じ結果が得られmaxNRます。

 ## Call:
 ## mle2(minuslogl = NLL, start = c(theta = 0, rho = 0.5), 
 ##     method = "L-BFGS-B", data = list(sxdat1 = sxdat1, item = item), 
 ##     lower = c(theta = -3, rho = 0.002), upper = c(theta = 3, 
 ##         rho = 1 - 0.002), control = list(fnscale = -1))
 ## 
 ## Coefficients:
 ##      theta        rho 
 ## -1.0038531  0.6352782 
 ## 
 ## Log-likelihood: -18.11 

勾配ベースの「準ニュートン」法ではなく、ニュートンラプソン法を使用してこれを行う必要が本当にない限り、これで十分だと思います。(「それは私の分野で他の人がしていること」以外に、そうするための強力な技術的理由があるようには思えません-正当な理由、他のすべての条件は同じですが、この場合、私を掘り下げるには十分ではありません同様の方法が簡単に利用でき、正常に機能する場合は、NRを実装するために使用します。)

于 2012-12-29T19:57:24.693 に答える