4

ユーザーから提供された URL から再帰的に Web ページをミラーリングしようとしています (もちろん深さ制限が設定されています)。Wget は css/js からのリンクをキャッチできなかったので、httrackを使用することにしました。

次のようなサイトをミラーリングしようとしています。

# httrack <http://onet.pl> -r6 --ext-depth=6 -O ./a "+*"

この Web サイトはhttp://www.onet.pl:80へのリダイレクト (301) を使用し、httrack は index.html ページを次のようにダウンロードします。

<a HREF="onet.pl/index.html" >Page has moved</a>

そしてそれ以上のものはありません!私が実行すると:

# httrack <http://www.onet.pl> -r6 --ext-depth=6 -O ./a "+*"

それは私が望むことをします。

リダイレクト後に httrack を作成する方法はありますか? 現在、httrack の URL に「www.」+urlを追加するだけですが、これは実際の解決策ではありません (すべてのユーザー ケースをカバーしているわけではありません)。Linux 用のより良い Web サイト ミラーリング ツールはありますか?

4

2 に答える 2

3

メインの httrackフォーラムで、開発者の 1 人がそれは不可能だと言いました。

適切な解決策は、別の Web ミラーリング ツールを使用することです。

于 2012-08-13T20:58:10.957 に答える