私は Web ベースのデータ分析システムを開発しており、大規模なデータセットを管理する際のベスト プラクティスを知りたいと考えています。MySQL DB にデータを格納し、php を使用しています。
たとえば、データ テーブルをオンザフライでフィルタリングできるようにしたい場合、次の 2 つのオプションを認識しています。
- すべてのデータに対して db を 1 回クエリし、javascript を使用してクライアント側でデータをフィルタリングするか、
- フィルターが変更されるたびに新しいクエリを実行してデータを更新する
オプション1がより良い/より速いオプションであるように私には思えますが、データセットが非常に大きくなる場合(つまり>100k行)、これは悪い考えですか?
これに取り組むための他のより良い方法があるかもしれませんが、今のところ私は何も知らないので、どんな提案も大歓迎です!
ありがとう