0

www.explosm.net/comics から毎日のコミックをコピーして、ローカル フォルダーに保存したいと考えています。

コミックには固有の名前が付けられており、作成者によっていくつかの場所に保管されています。

このような:

  • www.explosm.net/db/files/Comics/Rob/comic1.png
  • www.explosm.net/db/files/Comics/Dave/comic2.png

ただし、毎日のコミックはすべて、同じ URL www.explosm.net/comics から入手でき、最新のコミックにリダイレクトされます。ただし、これが役立つかどうかはわかりません。

これを達成するために cron と一緒に wget コマンドを使用して少し経験しましたが、知識が不足しているため、満足のいく結果は得られませんでした。

前もって感謝します。

4

1 に答える 1

0

cURLを調べてみてください。必要なのは、www.explosm.net/comics を要求したときにサーバーが提供するページ ソースを取得するために cURL を呼び出すスクリプトです。img次に、返されたデータを解析して、コミックを表示するタグを探します。

問題のタグのsrc属性をimg取得したら、cURL を使用して別のリクエストを作成し、実際に画像をダウンロードして、返されたデータをファイルにローカルに保存できます。

探している実際のコミック画像のソースは、次のような正規表現で始まるhttp://www.explosm.net/db/files/Comicsようです。次のような正規表現を使用して、ダウンロードする画像の URL を特定できます。

src\=\"(http:\/\/www\.explosm\.net\/db\/files\/Comics\/[^"]*)\"

URL は、一致する最初のグループになります。

于 2011-03-02T17:41:17.543 に答える