行数がかなり少ないカサンドラクラスターがあります(200万程度、カサンドラにとっては「小さい」と思います)。各行には一意のUUIDがキー設定されており、各行には約200列があります(いくつか与えるか、いくつか取る)。全体として、これらはかなり小さな行であり、バイナリデータや大量のテキストはありません。ただ短い文字列。
古いデータベースからcassandraクラスターへの最初のインポートが完了しました。私は各マシンでカサンドラから地獄を調整しました。何億もの書き込みがありましたが、読み取りはありませんでした。これを使用するときが来たので、読み取り速度は絶対にひどいことに気づきました。一度に500から10000行のどこでもpycassaを使用してマルチゲットを実行しています。500行でも、パフォーマンスはひどく、30秒以上かかることもあります。
このタイプの動作の原因は何ですか?このような大規模なインポートの後に、どのようなことをお勧めしますか?ありがとう。