2

シェル スクリプトで Web ページ (CSS、画像、JS などのすべてのメディア リソース) の静的コピーを作成する必要があります。このコピーは、どのブラウザでもオフラインで開くことができます。

一部のブラウザーには、ページからフォルダーを作成し、外部リソースをこのフォルダー内の相対的な静的リソースとして書き換える同様の機能 (名前を付けて保存... Web ページ、完全) があります。

Linuxコマンドラインでこれを達成し、特定のURLに自動化する方法は何ですか?

4

2 に答える 2

4

wget次のように使用できます。

wget --recursive --convert-links --domains=example.org http://www.example.org

このコマンドは、example.org ドメイン外のリンクをたどらず、www.example.org のページからハイパーリンクで到達可能なすべてのページを再帰的にダウンロードします。

wget再帰を制御するその他のオプションについては、マニュアル ページを確認してください。

于 2013-04-06T10:35:41.223 に答える
3

ツールwgetでサイトをミラーリングするには、次のようにします。

$ wget -mk http://www.example.com/

オプション:

-m -- ミラー

ミラーリングに適したオプションをオンにします。このオプションは、再帰とタイムスタンプをオンにし、無限の再帰深度を設定し、FTP ディレクトリ リストを保持します。現在、これは -r -N -l inf --no-remove-listing と同等です。

-k --convert-links

ダウンロードが完了したら、ドキュメント内のリンクをローカル表示に適したものに変換します。これは、表示されるハイパーリンクだけでなく、埋め込み画像、スタイル シートへのリンク、HTML 以外のコンテンツへのハイパーリンクなど、外部コンテンツにリンクするドキュメントのあらゆる部分に影響します。

于 2013-04-06T10:35:30.023 に答える