Web サイト ( https://cgran.org/browser/projects/ucsb_jello )内のディレクトリのすべての有用なファイルをダウンロードしようとしています。「便利なファイル」とは、ディレクトリに移動したときに表示されるファイル (cpp、python、およびその他のファイル) を意味します。HTMLファイルをダウンロードしたくありません。
Using wget to recursically fetch a directory with any files in itの提案に従い、次のコマンドを使用しました。
wget -r --no-parent --reject "index.html*" '--no-check-certificate' https://cgran.org/browser/projects/ucsb_jello '
残念ながら、多くの不要なファイル、つまり Web サイトに表示されないファイルをダウンロードします。さらに、ディレクトリのサブフォルダー内にあるいくつかの重要な cpp ファイルが欠落しています。
単一の wget コマンドで、そのディレクトリのすべてのサブフォルダーと関連ファイルをダウンロードするにはどうすればよいですか? フィードバックをお待ちしております。
ありがとう、
ナズムル