1

次のコマンドを使用しています。

$ xargs -n 1 curl -o -O < ../completeresultlist.txt

../completeresultlist.txtは、ダウンロードしたいファイルのリストが存在する場所です。ただし、これらのファイルの一部は、どこかの異なるディレクトリからのものですが、同じ名前を持っています。リストにあるすべてのファイルを取得したいのですが、どうすれば上書きを回避できますか?重複が見つかったときにcurlが上書きするようです。

4

2 に答える 2

2

私は次のスクリプトがそれを行うべきだと思います:

while read url; do
  if [ ! -e $(basename "$url") ]
  then curl -O "$url"
  else echo "Skipping $url because file already exists" # Leave out if you want silence
  fi
done < ../completeresultlist.txt
于 2012-12-25T05:38:29.487 に答える
2

残念ながら、この機能がサポートされているとは思いませんが、やることリストに載っています。もう1つのオプションは、ファイルを上書きしないことをサポートするwgetを使用することです。

于 2012-12-25T05:07:08.127 に答える