私が読んだ大きな(300,000行×25列)配列があります
dataset = numpy.genfromtxt(DataFileName,dtype="string",delimiter=',')
次に、改行と引用符をクリーンアップします。私は2つの方法でこれをやってみました:
1つ目の掃除方法
for i in range(len(dataset)):
for j in range(len(dataset[i])):
dataset[i][j] = dataset[i][j].replace("\n", "").replace("\"", "")
クリーンアップの2番目の方法
dataset = [ [word.replace('\n','').replace('"','') for word in dataset[i]] for i in range(len(dataset))]
これに続いて、配列を集中的に検索して、さまざまなことを計算します。最初の方法よりも 2 番目の方法でクリーンアップを行うと、検索は5 倍速くなります。理由は何ですか?