rCurl getURL 関数を使用してデータを自動的に取得したい ftp サイトがたくさんあります。
私はこれをやっています:
まず、次のような URL 側のベクトルがあります。
sites<-c("ftp.test1.com", "ftp.test2.com", "ftp.test3.com")
for (i in 1:length(sites)) {
data<-getURL(sites[i], userpwd="id:passwd")
<here I have code to insert this data to db>
}
ここまでは動作します。しかし、時々、ftp サイトからタイムアウトすることがあります。タイムアウトがある場合、このコードは壊れます。タイムアウトまたは認証エラーが発生した場合の対処方法。他の fpt サイトの処理を続行し、問題のある ftp サイトの問題をログに記録したいと考えています。どうすればこれを行うことができますか?