1

合計データを約 2MB から約 460MB に増やした後に発生した Cassandra クエリのタイムアウトに問題があります。

解決するのに6分もかかるいくつかのクエリを投げています。rpc_timeout_in_ms: 1000そして、それは両方のノードに設定した後です。タイムアウトは、 get_indexed_slices使い果たされて何も見つからないクエリに関連している可能性があると考えたためです。

各行には最大で 10 列があり、それぞれにわずか 4 バイトしかありません。列。

クエリは基本的に min_val < my_column AND my_column < max_val AND dummy_col = 0

レプリケーション係数 =2 の 2 つの Amazon Datastax AMI ノードがあります。

これが私の部分的な nodetool cfstats出力です。

$ nodetool cfstats -h localhost
Keyspace: Keyspace1
    Read Count: 12403801
    Read Latency: 0.08655620273172715 ms.
    Write Count: 1500181
    Write Latency: 0.12406482817739993 ms.
    Pending Tasks: 0
            Column Family: col_family
            SSTable count: 3
            Space used (live): 488592615
            Space used (total): 488592615
            Number of Keys (estimate): 1454976
            Memtable Columns Count: 0
            Memtable Data Size: 0
            Memtable Switch Count: 26
            Read Count: 12403801
            Read Latency: NaN ms.
            Write Count: 1500181
            Write Latency: NaN ms.
            Pending Tasks: 0
            Bloom Filter False Postives: 10879
            Bloom Filter False Ratio: 0.00000
            Bloom Filter Space Used: 2731728
            Key cache capacity: 200000
            Key cache size: 200000
            Key cache hit rate: NaN
            Row cache: disabled
            Compacted row minimum size: 180
            Compacted row maximum size: 310
            Compacted row mean size: 310

アップデート

役に立ったことの 1 つは、行キーが連続していることを確認しようとしたことです。以前は、行キーはミリ秒単位のタイムスタンプでした。これらは非常にまばらでした。

正確な改善を計算しませんでしたが、顕著でした。

4

0 に答える 0