私は本当にウェブサイトから画像をダウンロードしたいのですが、そうするためのwgetがあまりわかりません。彼らは別のWebサイトで画像をホストしています.catなどを使用してWebサイトから画像リンクを取得する方法なので、wgetを使用してそれらをすべてダウンロードできます. 私が知っているのはwget部分だけです。例はReddit.comです
wget -i download-file-list.txt
これを試して:
wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path
ページから1レベルの深さで再帰http://reddit.com/some/pathし、ディレクトリ構造を作成せず(ディレクトリが必要な場合は、を削除します-nd)、「jpg」、「jpeg」、「png」、「」で終わるファイルのみをダウンロードします。 gif」または「bmp」。そして、それはホストにまたがります。
perlモジュールを使用しますWWW::Mechanize。次の例では、 へのすべてのリンクをダンプしますstdout。
use WWW::Mechanize;
$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);
URL必要な実際の URL に置き換えます。