0

現在、Openbugs で、多くの (約 6000 サイト) の二項プロセスを含む階層ベイジアン モデルを開発しています。連続除去電気釣りイベント/パスについて説明し、一般的な構造は次のとおりです。

N_tot[i]<-d[i] * S[i]
d[i]~dgamma(0.01,0.01)

for (i in 1:n_sites){
    for (j in 1:n_pass[i]){
        logit(p[i,j])~dnorm(0,0.001)
        N[i,j] <- N_tot[i] - sum( C[i,1:(j-1)] )
        C[i,j] ~ dbin( p[i,j] , N[i,j] )
    }
}

ここで、n_sites は見ているサイトの総数です。n_pass[i] はサイト i で実行された釣りパスの数です。N[i,j] は、フィッシュ パス j を行ったときのサイト i の魚の数です。N_tot[i] は、魚が通過する前のサイト i の魚の総数であり、サイト d[i] の密度とサイト S[i] の表面 (表面は既知) の積です。C[i,j] は、魚道 j の間にサイト i で捕獲された魚の数です。p[i,j] は、フィッシュ パス j のサイト i での捕獲確率です。

各サイトは、通常、計算/収束に多くの時間を要する一連の二項プロセスである、平均 3 つのフィッシング パスです。通常、漁獲量は少ないため、二項過程を近似することはできません。

だから私は少し立ち往生しており、この問題に対処するための提案/代替案を探しています.

前もって感謝します

編集履歴: 2016 年 11 月 15 日: 明確化のための @M_Fidino リクエストに続いて、d および p の以前の定義を追加しました。

4

0 に答える 0