ユーザーから提供された URL から再帰的に Web ページをミラーリングしようとしています (もちろん深さ制限が設定されています)。Wget は css/js からのリンクをキャッチできなかったので、httrackを使用することにしました。
次のようなサイトをミラーリングしようとしています。
# httrack <http://onet.pl> -r6 --ext-depth=6 -O ./a "+*"
この Web サイトはhttp://www.onet.pl:80へのリダイレクト (301) を使用し、httrack は index.html ページを次のようにダウンロードします。
<a HREF="onet.pl/index.html" >Page has moved</a>
そしてそれ以上のものはありません!私が実行すると:
# httrack <http://www.onet.pl> -r6 --ext-depth=6 -O ./a "+*"
それは私が望むことをします。
リダイレクト後に httrack を作成する方法はありますか? 現在、httrack の URL に「www.」+urlを追加するだけですが、これは実際の解決策ではありません (すべてのユーザー ケースをカバーしているわけではありません)。Linux 用のより良い Web サイト ミラーリング ツールはありますか?