1

Web ページのリストをダウンロードしたい。私はwgetがこれを行うことができることを知っています. ただし、すべての URL を 5 分ごとにダウンロードしてフォルダーに保存するのは、wget の機能を超えているようです。Java、Python、またはPerlのいずれかでタスクを実行するツールを知っている人はいますか?

前もって感謝します。

4

2 に答える 2

7

wgetでcronを使用したいようです


ただし、Pythonを使用するように設定されている場合は、次のようになります。

import time
import os

wget_command_string = "wget ..."

while true:
    os.system(wget_command_string)
    time.sleep(5*60)
于 2009-09-02T11:45:52.327 に答える
5

wgetを使用するbashスクリプトを作成し、それをcrontabに入れて、5分ごとに実行します。(* / 5 * * * *)

これらすべてのWebページの履歴を保持する必要がある場合は、スクリプトの先頭に現在のUNIX時間を使用して変数を設定し、それを出力ファイル名に追加します。

于 2009-09-02T11:44:31.893 に答える