文字列を含む巨大なファイルを新しい(より小さい)ファイルのセットに分割し、nio2 を使用しようとしました。
ファイル全体をメモリにロードしたくないので、BufferedReader で試してみました。
小さいテキスト ファイルは、テキスト行の数によって制限する必要があります。
解決策は機能しますが、java 8 (stream()-api を使用したラムダなど) と nio2 を使用することで、パフォーマンスが向上する解決策を誰かが知っているかどうかを尋ねたいと思います。
public void splitTextFiles(Path bigFile, int maxRows) throws IOException{
int i = 1;
try(BufferedReader reader = Files.newBufferedReader(bigFile)){
String line = null;
int lineNum = 1;
Path splitFile = Paths.get(i + "split.txt");
BufferedWriter writer = Files.newBufferedWriter(splitFile, StandardOpenOption.CREATE);
while ((line = reader.readLine()) != null) {
if(lineNum > maxRows){
writer.close();
lineNum = 1;
i++;
splitFile = Paths.get(i + "split.txt");
writer = Files.newBufferedWriter(splitFile, StandardOpenOption.CREATE);
}
writer.append(line);
writer.newLine();
lineNum++;
}
writer.close();
}
}