rethinkdb でのテストでは、1,400 万のデータをテーブルに挿入しました。
サンプルデータ挿入 -
{"name": "jason" , "id" : "1", "email": "jason@gmail.com", ...}
id は 1400 万のカウンターによって生成されました
このクエリを使用してテーブルをフィルタリングしようとしたとき
r.db("test").table("test_table").filter({"id":"10000"})
このクエリは、テーブル行を返すのに約 13 秒かかります。
テーブルをフィルタリングして、必要なテーブル行を返すより高速な方法はありますか?