2

ここhttp://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/を読んで、複数の URL をダウンロードしたい場合は、それらをこのようなテキストファイル

$ cat > download-file-list.txt
URL1
URL2
URL3
URL4

そして、このように wget を使用します

$ wget -i download-file-list.txt

ただし、次のように、各 URL をドライブ上の独自のディレクトリに保存するとします。

URL1 -> Users/Downloads/Tech
URL2 -> Users/Downloads/Fashion
URL3 -> Users/Downloads/Cooking
URL4 -> Users/Downloads/News

どうすればこれを達成できますか? テキスト ファイル内の各 URL のディレクトリを手動で設定し、wget にそれを読み取らせて、各ファイルの保存場所を自動的に認識させることは可能ですか? 私が必要とするものを達成するための他の方法はありますか? 後でcronjobsを使用して、ダウンロードプロセスをセットアップおよび自動化しようとしています。

ありがとう

4

2 に答える 2

3

以下は、このようなリストを提供する、これを実行できるバッチ スクリプトです。

$ cat > urllist.txt
URL1 file1
URL2 file2
URL3 file3
URL4 file4

$ while read url file; do 
    wget -c -O "$file" "$url"
done < urllist.txt

URL にはスペースを入れないでください (%20 で表すことができます) が、ファイル名にはスペースを入れることができます。

于 2013-11-27T19:09:53.197 に答える
1

それではその方法は使えません。最良の方法は、bash、perl、または python スクリプトを使用して、何らかの形式 (「URL ディレクトリ」など) のファイルを読み取り、各 URL を指定されたディレクトリにダウンロードすることです。ただし、その動作を得るには、wget の外にいくつかのスマートを配置する必要があります。

于 2013-04-15T01:41:50.997 に答える