1 つのサイトで Web ページを一括ダウンロードしたい。「urls.txt」ファイルには 5000000 個の URL リンクがあります。300Mくらいです。マルチスレッドでこれらの URL をリンクし、これらの Web ページをダウンロードするにはどうすればよいですか? またはこれらの Web ページを一括ダウンロードする方法は?
私のアイデア:
with open('urls.txt','r') as f:
for el in f:
##fetch these urls
またはねじれた?
それに対する良い解決策はありますか?