5

wget -rを使用してローカルサイトをクロールしようとしていますが、失敗しました。最初のページをダウンロードするだけで、それ以上深くなることはありません。ちなみに、私は失敗したので、私が試しているどのサイトでも機能しません... :)

私はさまざまなオプションを試しましたが、それ以上のことは何も起こりません。これが私がそれを作ると思ったコマンドです:

wget -r -e robots=off --user-agent="Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.4 (KHTML, like Gecko) Chrome/22.0.1229.79 Safari/537.4" --follow-tags=a,ref --debug `http://rocky:8081/obix`

本当に、私には手がかりがありません。私がwgetについて読んだサイトやドキュメントが何であれ、それは単にwget -rで動作するはずだと言っているので、私のwgetはバグがあると思い始めています(私はFedora 16を使用しています)。

何か案が?


編集:これが私が得ている出力ですwget -r --follow-tags=ref,a http://rocky:8081/obix/

wget -r --follow-tags = ref、a http://rocky:8081/obix/ --2012-10-19 09:29:51--ロッキー http://rocky:8081/obix/を解決しています...127.0.0.1ロッキーに接続しています|127.0.0.1 |:8081...接続されています。HTTPリクエストが送信され、応答を待っています... 200 OK長さ:792 [text / xml]保存先:“ rocky:8081 / obix / index.html” </ p>

100%[=============================================== ===============================>] 792-.-K / s in 0s

2012-10-19 09:29:51(86,0 MB / s)-「rocky:8081 / obix/index.html」が保存されました[792/792]

FINISHED --2012-10-19 09:29:51--ダウンロード:1ファイル、792 in 0s(86,0 MB / s)

4

1 に答える 1

1

通常、ユーザー エージェントを指定する必要はありません。

以下を与えるだけで十分です。

wget -r http://stackoverflow.com/questions/12955253/recursive-wget-wont-work

wget が意図したとおりに動作しない理由を確認するには、表示される出力を見て、ここに投稿してください。

于 2012-10-18T13:30:47.440 に答える