0

Web サイトから大量の画像を Mac にダウンロードしようとしています。DownloadThemAll、SiteSucker などを使用して小さな画像をダウンロードできますが、十分に深く掘り下げることはできません。だから私は自分の快適ゾーンから少し外れているターミナルに飛び込まなければならず、私のスキルは少し錆びています。

以下のスクリプトを試してみました。

curl -O http://www.domain.co.uk/system/images/[1-1000]/original/*.jpg

このスクリプトは機能し、ターミナルが画像ファイルをダウンロードしているのを確認できますが、ファイルが *.jpg で上書きされ、1.jpg、2.jpg、3.jpg などのように順番に生成されないという問題があります。または元の名前でも。元の jpg 名は乱数/文字 (LIC0145_websource.jpg など) を使用しているため、*.jpg で補足しようとしました。ターミナルにこれらの画像をダウンロードするように指示するために、どのコードが欠けているのか疑問に思っています。

以下のシェルスクリプトを呼び出すのにもうんざりしましたが、「予期しないファイルの終わり」に遭遇しました

#!/bin/bash
for i in `seq 1 1000`;
do
input=http://www.domain.co.uk/system/images/$i/original/*.jpg
output=$i.jpg
#   echo $input, $output
curl --output $output --remote-name $input
done

カールオプションはまだより良いオプションかもしれないと思いますが、誰かが修正または他の解決策を持っている場合はお知らせください.

4

1 に答える 1

-1

あなたはこのようなことをすることができますwget(私はそれがそうではないことを知っていcurlます):

wget --no-parent --accept=jpg,jpeg,htm,html --mirror  http://somedomain/ 

次に、ディレクトリにCDを挿入し、

find ./ \( -iname '*.htm' -o -iname '*.html' \) -exec rm {} \;
于 2012-10-18T13:58:25.183 に答える