合計データを約 2MB から約 460MB に増やした後に発生した Cassandra クエリのタイムアウトに問題があります。
解決するのに6分もかかるいくつかのクエリを投げています。rpc_timeout_in_ms: 1000
そして、それは両方のノードに設定した後です。タイムアウトは、 get_indexed_slices
使い果たされて何も見つからないクエリに関連している可能性があると考えたためです。
各行には最大で 10 列があり、それぞれにわずか 4 バイトしかありません。列。
クエリは基本的に min_val < my_column AND my_column < max_val AND dummy_col = 0
レプリケーション係数 =2 の 2 つの Amazon Datastax AMI ノードがあります。
これが私の部分的な nodetool cfstats
出力です。
$ nodetool cfstats -h localhost
Keyspace: Keyspace1
Read Count: 12403801
Read Latency: 0.08655620273172715 ms.
Write Count: 1500181
Write Latency: 0.12406482817739993 ms.
Pending Tasks: 0
Column Family: col_family
SSTable count: 3
Space used (live): 488592615
Space used (total): 488592615
Number of Keys (estimate): 1454976
Memtable Columns Count: 0
Memtable Data Size: 0
Memtable Switch Count: 26
Read Count: 12403801
Read Latency: NaN ms.
Write Count: 1500181
Write Latency: NaN ms.
Pending Tasks: 0
Bloom Filter False Postives: 10879
Bloom Filter False Ratio: 0.00000
Bloom Filter Space Used: 2731728
Key cache capacity: 200000
Key cache size: 200000
Key cache hit rate: NaN
Row cache: disabled
Compacted row minimum size: 180
Compacted row maximum size: 310
Compacted row mean size: 310
アップデート
役に立ったことの 1 つは、行キーが連続していることを確認しようとしたことです。以前は、行キーはミリ秒単位のタイムスタンプでした。これらは非常にまばらでした。
正確な改善を計算しませんでしたが、顕著でした。