合計約 20 GB のデータを含む 100,000 を超えるファイルをダウンロードするための wget コマンドを含む bash ファイルがあります。
bash ファイルは次のようになります。
wget http://something.com/path/to/file.data
wget http://something.com/path/to/file2.data
wget http://something.com/path/to/file3.data
wget http://something.com/path/to/file4.data
これにはちょうど 114,770 行あります。アカウントを持っているサーバーにsshしてこれを実行するのはどれくらい信頼できますか? ssh セッションは最終的にタイムアウトになりますか? ずっとsshする必要がありますか?ローカル コンピューターがクラッシュまたはシャットダウンした場合はどうなりますか?
また、これに必要なリソースの数を知っている人はいますか? 共有サーバーでこれをやりたいと思うのはおかしいですか?
これは奇妙な質問だと思いますが、誰かアイデアがあるかどうか疑問に思っています。ありがとう!