-1

ユーザーにログインを要求するサイトから定期的にコンテンツを自動的にダウンロードしようとしています。ダウンロードしようとしているコンテンツは小さな .js ファイル (<10 kb) です。

ログインしている場合にのみサイトに目的のデータが表示されるため、(MATLAB の) urlwriteなどの関数を単純に使用してデータをダウンロードすることはできません。

PHP のlibcurlライブラリが問題を簡単に解決できるかどうかはわかりません。

この同様の質問 ( POST データが必要なサイトからデータをフェッチしていますか? ) への回答で示唆されているように、Zend_Http_Client を使用しようとしましたが、動作させることができませんでした。

要約すると、ユーザーのログイン (およびおそらく Cookie の送信) が必要なサイトから URL コンテンツを自動的にダウンロードする方法について教えてください。


これに加えて、このようなデータを定期的に自動ダウンロードするのに最適なソフトウェアについてアドバイスをいただければ幸いです。

(ソリューションをテストするためにダウンロードしようとしている正確な URL が必要な場合は、下にコメントを残してください。)

4

2 に答える 2

0

サイトが使用するログインの種類によって異なります。HTTP 認証を使用する場合は、curl オプション CURLOPT_HTTPAUTH を使用します (setopt、http://php.net/manual/en/function.curl-setopt.php を参照)

もう 1 つのオプションは、スタンドアロン ユーティリティ wget です。FAQ には、両方のログイン方法のわかりやすい説明が含まれていますhttp://wget.addictivecode.org/FrequentlyAskedQuestions#password-protected

curl を初めて使用する場合: CURL_RETURNTRANSFER を true に設定し (false の場合、コンテンツは stdout に送信されます)、CURL_HEADER を false に設定して、ヘッダーなしでコンテンツを取得することを忘れないでください。

于 2012-05-19T11:43:27.377 に答える
0

あなたの唯一の懸念は、一般的なCookieではなく、ログインです。この質問への回答を確認してください: libcurl を使用して安全な Web サイトにログインし、ログインの背後にある html を取得するにはどうすればよいですか?

于 2012-05-19T11:23:08.993 に答える