4

*.jpgWeb ページ上のすべての画像 (例: ) のリスト、つまり で終わる URL を抽出できるスクリプトが欲しい.jpg

このスクリプトでは、 を使用して出力をファイルに>パイプし、パイプされた出力を への入力として使用しwgetます。

これはシェルスクリプトを使用して可能ですか。

(編集:bashシェルを使用しています)

4

3 に答える 3

3

を使用してはlynxどうですか?

lynx -image_links -dump www.google.com |
    grep '\. https\?://.*\.\(gif\|jpg\|png\)$'

出力を少しクリーンアップするには、次を使用できますcut

lynx -image_links -dump www.google.com |
    grep '\. https\?://.*\.\(gif\|jpg\|png\)$' |
    cut -d . -f 2- |
    cut -d ' ' -f 2-
于 2012-08-25T21:37:32.883 に答える
0

実際にすべての画像もダウンロードしたい場合:

for i in `lynx -image_links -dump http://www.google.com | grep 'jpg\|gif' \
| grep http | awk '{print $2}'`; do wget $i; done
于 2013-10-28T17:59:07.823 に答える