0

ですから、私の質問は経験に基づいているので、データセットをロードしようとした人たちについて疑問に思っています。ロードするのに妥当な量のデータはどれくらいですか。私のユーザーは比較的大きなパイプを持っているので、モデムのユーザーについて心配する必要はありませんが、処理時間については心配しています。私の限界は 300 ~ 1024k の範囲のどこかにあると思いますが、もう少し決定的な方法やウェブサイトを持っている人はいますか?

このリソースに出くわしました。2005 年のものなので、一般的な教訓はかなり健全に見えますが、時代遅れだと思います。

http://blogs.nitobi.com/dave/2005/09/29/javascript-benchmarking-iv-json-revisited/

私もこれに出くわしました:

http://www.jamesward.com/census/

チェックする価値のあるものは他にありますか?

4

1 に答える 1

3

典型的な JSON パケットは、Web サーバーによって gzip を使用して約 初期サイズの 10%。つまり、実際には 30 ~ 100k を見ています。これらの応答をキャッシュできる場合は、さらに問題は少なくなります。

伝送のサイズは、パケットが「多すぎる」かどうかの決定要因であってはなりません。代わりに、ブラウザがこのパケットを処理するのにかかる時間を調べます (UI の更新など)。

実際、JSON の解析は非常に高速で、最大で数メガバイトのデータになるはずです。それを UI で何か新しいものに変えることは、作成している HTML の複雑さに大きく依存します。

于 2009-04-06T21:03:21.823 に答える