0

私は Web ベースのデータ分析システムを開発しており、大規模なデータセットを管理する際のベスト プラクティスを知りたいと考えています。MySQL DB にデータを格納し、php を使用しています。

たとえば、データ テーブルをオンザフライでフィルタリングできるようにしたい場合、次の 2 つのオプションを認識しています。

  1. すべてのデータに対して db を 1 回クエリし、javascript を使用してクライアント側でデータをフィルタリングするか、
  2. フィルターが変更されるたびに新しいクエリを実行してデータを更新する

オプション1がより良い/より速いオプションであるように私には思えますが、データセットが非常に大きくなる場合(つまり>100k行)、これは悪い考えですか?

これに取り組むための他のより良い方法があるかもしれませんが、今のところ私は何も知らないので、どんな提案も大歓迎です!

ありがとう

4

1 に答える 1

5

最善の方法は、必要に応じてデータベースにクエリを実行することです。

次に、ajax を介してロードし、必要なときに必要な他の部分を照会します。

クライアント側で 10 万行をレンダリングするには時間がかかりすぎます;)

于 2013-08-23T04:21:32.957 に答える