何千ものオンライン JSON から、30MB に相当する約 300.000 行の最終行を取得する必要があります。
コーディングの初心者である私は、JS に固執して $getJSON データを切り取り、興味深い部分を自分の に追加<body>
し、何千ものオンライン JSON をループすることを好みます。しかし、私は疑問に思います:
- 私の Web ブラウザーは、300.000 件の $getJSON クエリと、その結果の 30 ~ 50 MB の Web ページをクラッシュすることなく処理できますか?
- JS を使用してこの結果をファイルに書き留めることは可能で、スクリプトの動作は常に保存されますか?
スクリプトは約 24 時間実行されると予想しています。数値は概算です。
編集:サーバー側の知識はありません。JS だけです。