6

私は本当にウェブサイトから画像をダウンロードしたいのですが、そうするためのwgetがあまりわかりません。彼らは別のWebサイトで画像をホストしています.catなどを使用してWebサイトから画像リンクを取得する方法なので、wgetを使用してそれらをすべてダウンロードできます. 私が知っているのはwget部分だけです。例はReddit.comです

  wget -i download-file-list.txt
4

2 に答える 2

12

これを試して:

wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path

ページから1レベルの深さで再帰http://reddit.com/some/pathし、ディレクトリ構造を作成せず(ディレクトリが必要な場合は、を削除します-nd)、「jpg」、「jpeg」、「png」、「」で終わるファイルのみをダウンロードします。 gif」または「bmp」。そして、それはホストにまたがります。

于 2012-07-29T07:16:52.240 に答える
2

perlモジュールを使用しますWWW::Mechanize。次の例では、 へのすべてのリンクをダンプしますstdout

use WWW::Mechanize;

$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);

URL必要な実際の URL に置き換えます。

于 2012-07-29T09:08:38.243 に答える