3

sftp サーバーからファイルをダウンロードして解析し、内容をデータベースに挿入する必要があります。

現在、次のように rCurl を使用しています。

library(RCurl) 
url<-c("sftp://data.ftp.net/incomining.data.txt")
x<-getURL(url, userpwd="<id>:<passwd>")
writeLines(x, incoming.data.txt"))

download.file も調べましたが、download.file に sftp sufpport が表示されません。他の誰かがこのような同様の仕事をしましたか? 複数のファイルを取得するため、rcurl が時々タイムアウトすることに気付きました。最初にsftpサーバーからすべてのファイルをsftpダウンロードしてから処理するのが好きです。何か案は?

4

1 に答える 1

2

「rcurlでタイムアウトを回避するにはどうすればよいですか?」という質問のようです。

CURLOPT_CONNECTTIMEOUT の値を増やします。これは、 PHP で Curl のタイムアウトを設定する とまったく同じ問題です。

以下のコメントから編集します。

x<-getURL(url, userpwd="<id>:<passwd>", connecttimeout=60) // 60 seconds, e.g.
于 2013-04-18T18:03:48.237 に答える