だから、私はビッグデータを含むデータベースを持っています。使用するデータは現在約 2,6 GB です。
後で別のスクリプトで使用するために、すべてのデータをテキスト ファイルに書き込む必要があります。
データはファイルごとに制限され、複数の部分に分割されています。1 ファイルあたり 100 件の結果 (各ファイル約 37 MB)。それは約71ファイルです。
データはシリアル化された後、openssl で暗号化された json データです。
240 秒後に最大実行時間に達するまで、データはファイルに正しく書き込まれています。それは約20ファイルの後です...
まあ、その時間を延長することはできますが、それは問題ではありません。
問題は次のとおりです。
Writing file 1-6: +/- 5 seconds
Writing file 7-8: +/- 7 seconds
Writing file 9-11: +/- 12 seconds
Writing file 12-14: +/- 17 seconds
Writing file 14-16: +/- 20 seconds
Writing file 16-18: +/- 23 seconds
Writing file 19-20: +/- 27 seconds
Note: time is needed time per file
言い換えれば、すべてのファイルが書き込まれるたびに、ファイルごとの書き込み時間が大幅に増加し、スクリプトがオフコースで遅くなります。
スクリプトの構造は次のようになります。
$needed_files = count needed files/parts
for ($part=1; $part<=$needed_files; $part++) { // Loop throught parts
$query > mysqli select data
$data > json_encode > serialize > openssl_encrypyt
file_put_contents($filename.$part, $data, LOCK_EX);
}
ヘルプ後の作業コード
$notchDetails = mysqli_query($conn, "SELECT * FROM notches WHERE projectid = ".$projectid."");
$rec_count = 0;
$limit = 100;
$part = 1;
while ($notch = mysqli_fetch_assoc($notchDetails)) {
$data1[] = $notch;
$rec_count++;
if ($rec_count >= $limit) {
$data = json_encode($data1);
$data = openssl_encrypt(bin2hex($data), "aes128", $pass, false, $iv);
$filename = $mainfolder."/".$projectfolder."/".$subfolder."/".$fname.".part".$part."".$fext;
file_put_contents($filename, $data, LOCK_EX);
$part++;
$rec_count = 0;
$data = $data1 = "";
}
}
if ($data1 != "") {
$data = json_encode($data1);
$data = openssl_encrypt(bin2hex($data), "aes128", $pass, false, $iv);
$filename = $mainfolder."/".$projectfolder."/".$subfolder."/".$fname.".part".$part."".$fext;
file_put_contents($filename, $data, LOCK_EX);
}
mysqli_free_result($notchDetails);