シェル スクリプトで Web ページ (CSS、画像、JS などのすべてのメディア リソース) の静的コピーを作成する必要があります。このコピーは、どのブラウザでもオフラインで開くことができます。
一部のブラウザーには、ページからフォルダーを作成し、外部リソースをこのフォルダー内の相対的な静的リソースとして書き換える同様の機能 (名前を付けて保存... Web ページ、完全) があります。
Linuxコマンドラインでこれを達成し、特定のURLに自動化する方法は何ですか?
シェル スクリプトで Web ページ (CSS、画像、JS などのすべてのメディア リソース) の静的コピーを作成する必要があります。このコピーは、どのブラウザでもオフラインで開くことができます。
一部のブラウザーには、ページからフォルダーを作成し、外部リソースをこのフォルダー内の相対的な静的リソースとして書き換える同様の機能 (名前を付けて保存... Web ページ、完全) があります。
Linuxコマンドラインでこれを達成し、特定のURLに自動化する方法は何ですか?
wget
次のように使用できます。
wget --recursive --convert-links --domains=example.org http://www.example.org
このコマンドは、example.org ドメイン外のリンクをたどらず、www.example.org のページからハイパーリンクで到達可能なすべてのページを再帰的にダウンロードします。
wget
再帰を制御するその他のオプションについては、マニュアル ページを確認してください。
ツールwget
でサイトをミラーリングするには、次のようにします。
$ wget -mk http://www.example.com/
オプション:
-m -- ミラー
ミラーリングに適したオプションをオンにします。このオプションは、再帰とタイムスタンプをオンにし、無限の再帰深度を設定し、FTP ディレクトリ リストを保持します。現在、これは -r -N -l inf --no-remove-listing と同等です。
-k --convert-links
ダウンロードが完了したら、ドキュメント内のリンクをローカル表示に適したものに変換します。これは、表示されるハイパーリンクだけでなく、埋め込み画像、スタイル シートへのリンク、HTML 以外のコンテンツへのハイパーリンクなど、外部コンテンツにリンクするドキュメントのあらゆる部分に影響します。