1

rCurl getURL 関数を使用してデータを自動的に取得したい ftp サイトがたくさんあります。

私はこれをやっています:

まず、次のような URL 側のベクトルがあります。

 sites<-c("ftp.test1.com", "ftp.test2.com", "ftp.test3.com")
 for (i in 1:length(sites)) {
  data<-getURL(sites[i], userpwd="id:passwd")

  <here I have code to insert this data to db>
}

ここまでは動作します。しかし、時々、ftp サイトからタイムアウトすることがあります。タイムアウトがある場合、このコードは壊れます。タイムアウトまたは認証エラーが発生した場合の対処方法。他の fpt サイトの処理を続行し、問題のある ftp サイトの問題をログに記録したいと考えています。どうすればこれを行うことができますか?

4

1 に答える 1