いくつかのファイルをホストしている Web サイトを見つけましたが、ファイルが多すぎてすべてを個別にダウンロードできません。ファイル名はかなり標準的で再現可能な形式、つまり 1_a、1_b、1_c などです。
Linuxコマンドラインで、wgetを使用してそれらすべてのダウンロードを自動化する方法はありますか? ファイル名を 1 行に 1 エントリのテキスト ファイルに入れ、そこから検索するようにコマンド ラインに指示することは簡単にできますが、それは URL 全体ではなく、変化するビットだけなので、コマンドは次のようになります。
wget url.com/files/(ファイルからのビット).doc sourcefile.txt
基本的に、ソースファイルのエントリを括弧内のビットに置き換えることができます。
また、ある段階では、ファイルの大きなチャンク (数百) が単純に連続して番号付けされているため、そのビットに for ループを使用できますか? もしそうなら、コマンドラインで構文的にこれを行うにはどうすればよいですか?
どうもありがとう。