1 つのテキスト ファイルに 50 の奇妙な URL のリストを作成しました (各行に 1 つの URL)。ここで、各 URL について、Web サイトのテキストを抽出して保存します。これは、Linux のシェル スクリプトの仕事のように思えます。
現時点では、私は物事をまとめています:
sed -n 1p listofurls.txt
URLファイルの最初の行を読み取ることができたとします。listofurls.txt
- 出力を
lynx -dump www.firsturl...
使用して、さまざまなコマンドをパイプ処理して整理およびクリーンアップできます。やった、それはうまくいく。
自動化する前に、URL を lynx にパイプするのに苦労しています:
sed -n 1p listofurls.txt | lynx -dump -stdin
動作しません。
1 つの URL に対して、さらに重要なことに、私が持っている各 URL に対してどのように言うことができますlistofurls.txt
か?