私は、データ インデックス作成用のワード アライン ビットマップ圧縮アルゴリズムを開発しています。アルゴリズムは、WAH 圧縮研究論文に基づいています。しかし、圧縮されたビットマップを変更すると、圧縮されたワードサイズのブロックを分割する必要があり、いくつかの memmove がパフォーマンスのボトルネックを引き起こすため、あまり効率的ではありません。
次の例を見てください。
例: データセット - [1000000,34,9,23456,6543,10000000,23440004,100,345]
データセットのランダムな性質によりパフォーマンスが低下します。実際のアプリケーション シナリオでは、これが発生する可能性があります。
- このパフォーマンスの問題を克服する方法についてのヒントを教えてもらえますか?