私はcygwinとUNIXの経験がほとんどありませんが、さらに大きなファイルセットから大きなデータセットを抽出するために使用する必要があります...昨日、この短いスクリプトを実行するためにいくつかの助けがありましたが、(〜7実行した後-8 時間) スクリプトは同じ出力ファイルに 22 回書き込みました。少なくともそれが起こったと思います。
コードをこれに変更しました (以下を参照) が、これが適切に行われる方法を知っている人が、さらに 8 時間を無駄にする前に動作する可能性があるかどうかを教えてくれたら、本当に素晴らしいでしょう...
for chr in {1..22}
do
zcat /cygdrive/g/data/really_long_filename$chr | sed '/^#/d' | cut -f1-3 >> db_to_rs_$chr
done
ファイル 1..22 を読み取り、# で始まる行を削除し、列 1 から 3 を同じ番号 1..22 で終わるファイルに送信したい
昨日の最後の部分は...-f1-3 >> db_to_rs
、そのファイルを22回書き直したと思われるものでしたか?
助けていただければ幸いです ~L