67

5000 万を超えるエントリを含むテキスト ファイルの上位 1000 行を別の新しいファイルにコピーし、これらの行を元のファイルから削除したいと考えています。

Unixで単一のシェルコマンドで同じことを行う方法はありますか?

4

6 に答える 6

91
head -1000 input > output && sed -i '1,+999d' input

例えば:

$ cat input 
1
2
3
4
5
6
$ head -3 input > output && sed -i '1,+2d' input
$ cat input 
4
5
6
$ cat output 
1
2
3
于 2009-04-29T05:48:01.633 に答える
34
head -1000 file.txt > first100lines.txt
tail --lines=+1001 file.txt > restoffile.txt
于 2009-04-29T05:38:09.317 に答える
11

sed好奇心から(v4.1.5)の GNU バージョンを含むボックスを見つけ、 11M 行のテキスト ファイルを使用して、これまでに提案された 2 つのアプローチの (キャッシュされていない) パフォーマンスをテストしました。

$ wc -l input
11771722 input

$ time head -1000 input > output; time tail -n +1000 input > input.tmp; time cp input.tmp input; time rm input.tmp

real    0m1.165s
user    0m0.030s
sys     0m1.130s

real    0m1.256s
user    0m0.062s
sys     0m1.162s

real    0m4.433s
user    0m0.033s
sys     0m1.282s

real    0m6.897s
user    0m0.000s
sys     0m0.159s

$ time head -1000 input > output && time sed -i '1,+999d' input

real    0m0.121s
user    0m0.000s
sys     0m0.121s

real    0m26.944s
user    0m0.227s
sys     0m26.624s

これは私が使用していた Linux です。

$ uname -a
Linux hostname 2.6.18-128.1.1.el5 #1 SMP Mon Jan 26 13:58:24 EST 2009 x86_64 x86_64 x86_64 GNU/Linux

このテストでは、少なくとも、アプローチsedよりも遅いようですtail(27 秒対 ~14 秒)。

于 2009-04-29T07:03:57.817 に答える
7

これはワンライナーですが、4 つのアトミック コマンドを使用します。

head -1000 file.txt > newfile.txt; tail +1000 file.txt > file.txt.tmp; cp file.txt.tmp file.txt; rm file.txt.tmp
于 2009-04-29T05:51:17.757 に答える
4

Perl のアプローチ:

perl -ne 'if($i<1000) { print; } else { print STDERR;}; $i++;' in 1> in.new 2> out && mv in.new in
于 2009-04-29T08:02:05.260 に答える