Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
*.jpgWeb ページ上のすべての画像 (例: ) のリスト、つまり で終わる URL を抽出できるスクリプトが欲しい.jpg
*.jpg
.jpg
このスクリプトでは、 を使用して出力をファイルに>パイプし、パイプされた出力を への入力として使用しwgetます。
>
wget
これはシェルスクリプトを使用して可能ですか。
(編集:bashシェルを使用しています)
bash
を使用してはlynxどうですか?
lynx
lynx -image_links -dump www.google.com | grep '\. https\?://.*\.\(gif\|jpg\|png\)$'
出力を少しクリーンアップするには、次を使用できますcut。
cut
lynx -image_links -dump www.google.com | grep '\. https\?://.*\.\(gif\|jpg\|png\)$' | cut -d . -f 2- | cut -d ' ' -f 2-
実際にすべての画像もダウンロードしたい場合:
for i in `lynx -image_links -dump http://www.google.com | grep 'jpg\|gif' \ | grep http | awk '{print $2}'`; do wget $i; done