したがって、基本的には、タイムスタンプやその他のものを含む JSON データを含むテキスト ファイルのみを含む 1 ギグ データ ファイル (圧縮) がたくさんあります。
PHP コードを使用して、このデータを MYSQL データベースに挿入します。
これらのテキスト ファイルをメモリに保存することはできません。そのため、各データ ファイルを 1 行ずつ処理する必要があります。これを行うには、stream_get_line() を使用しています。
- 含まれるデータの一部は更新され、一部は挿入されます。
質問 Insert / Select / Update ステートメントを使用するか、CSV ファイルを作成してそのようにインポートする方が高速ですか?
一括操作のファイルを作成し、SQL から実行しますか?
基本的に、存在しない主キーを持つデータを挿入し、主キーが存在する場合はデータのフィールドを更新する必要があります。しかし、私はこれを大量に行うつもりです。
パフォーマンスは常に問題です。
更新 テーブルには22,000列があり、そのうち10〜20列に0が含まれていないと言うだけです.