現在、Openbugs で、多くの (約 6000 サイト) の二項プロセスを含む階層ベイジアン モデルを開発しています。連続除去電気釣りイベント/パスについて説明し、一般的な構造は次のとおりです。
N_tot[i]<-d[i] * S[i]
d[i]~dgamma(0.01,0.01)
for (i in 1:n_sites){
for (j in 1:n_pass[i]){
logit(p[i,j])~dnorm(0,0.001)
N[i,j] <- N_tot[i] - sum( C[i,1:(j-1)] )
C[i,j] ~ dbin( p[i,j] , N[i,j] )
}
}
ここで、n_sites は見ているサイトの総数です。n_pass[i] はサイト i で実行された釣りパスの数です。N[i,j] は、フィッシュ パス j を行ったときのサイト i の魚の数です。N_tot[i] は、魚が通過する前のサイト i の魚の総数であり、サイト d[i] の密度とサイト S[i] の表面 (表面は既知) の積です。C[i,j] は、魚道 j の間にサイト i で捕獲された魚の数です。p[i,j] は、フィッシュ パス j のサイト i での捕獲確率です。
各サイトは、通常、計算/収束に多くの時間を要する一連の二項プロセスである、平均 3 つのフィッシング パスです。通常、漁獲量は少ないため、二項過程を近似することはできません。
だから私は少し立ち往生しており、この問題に対処するための提案/代替案を探しています.
前もって感謝します
編集履歴: 2016 年 11 月 15 日: 明確化のための @M_Fidino リクエストに続いて、d および p の以前の定義を追加しました。