GARCHモデルのシミュレーションを行っています。モデル自体はあまり関連性がありません。Rでのシミュレーションの最適化についてお聞きしたいと思います。何よりも、ベクトル化の余地があるとしたら、考えてみましたが、わかりません。これまでのところ私が持っているのはこれです:
させて:
# ht=cond.variance in t
# zt= random number
# et = error term
# ret= return
# Horizon= n periods ahead
だからこれはコードです:
randhelp= function(horizon=horizon){
ret <- zt <- et <- rep(NA,horizon)#initialize ret and zt et
for( j in 1:horizon){
zt[j]= rnorm(1,0,1)
et[j] = zt[j]*sqrt(ht[j])
ret[j]=mu + et[j]
ht[j+1]= omega+ alpha1*et[j]^2 + beta1*ht[j]
}
return(sum(ret))
}
今から5期間後のリターンのシミュレーションを実行したいので、これを実行します。たとえば、10000とします。
#initial values of the simulation
ndraws=10000
horizon=5 #5 periods ahead
ht=rep(NA,horizon) #initialize ht
ht[1] = 0.0002
alpha1=0.027
beta1 =0.963
mu=0.001
omega=0
sumret=sapply(1:ndraws,function(x) randhelp(horizon))
これはかなり速く実行されていると思いますが、この問題にもっと良い方法で取り組む方法があるかどうかをお聞きしたいと思います。
ありがとう!