私は本当にウェブサイトから画像をダウンロードしたいのですが、そうするためのwgetがあまりわかりません。彼らは別のWebサイトで画像をホストしています.catなどを使用してWebサイトから画像リンクを取得する方法なので、wgetを使用してそれらをすべてダウンロードできます. 私が知っているのはwget部分だけです。例はReddit.comです
wget -i download-file-list.txt
これを試して:
wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path
ページから1レベルの深さで再帰http://reddit.com/some/path
し、ディレクトリ構造を作成せず(ディレクトリが必要な場合は、を削除します-nd
)、「jpg」、「jpeg」、「png」、「」で終わるファイルのみをダウンロードします。 gif」または「bmp」。そして、それはホストにまたがります。
perl
モジュールを使用しますWWW::Mechanize
。次の例では、 へのすべてのリンクをダンプしますstdout
。
use WWW::Mechanize;
$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);
URL
必要な実際の URL に置き換えます。