0

www.elections.am/votersreg というサイトがあり、Linux の wget タグを使用して、この Web サイトのすべての情報を取得する方法を知りたいです。ありがとう

4

2 に答える 2

1

wget -r「httrack」と呼ばれるプログラムを使用またはインストールし、それを使用してURLをフォルダーにミラーリングできます

于 2012-10-04T07:05:12.143 に答える
0

別の答えは、あなたのために働くかもしれない「wget -r」を提案しました。ただし、質問が示すように「この Web サイトのすべての情報を取得する」ためには、「wget --mirror」と「wget --mirror --convert-links」がより強力なソリューションになると思います。-r オプションはデフォルトで 5 レベルの再帰に設定され、 --mirror は無限レベルの再帰を提供します。--convert-links オプションは、ローカル ブラウジングが目的の場合は、ダウンロードしたドキュメント内のリンクを適切に変換して、ローカル ブラウジングに適したものにします。

ここでは「無限再帰」の側面に注意します。これは手に負えなくなる可能性があるため、ダウンロードの進行状況を監視することをお勧めします。--level=depth オプションを使用して、再帰の深さを明示的に定義することもできます。

于 2017-01-07T06:51:55.820 に答える