膨大な量の時系列データを処理する先験的な能力に惹かれて以来、私は最近 Hypertable でテストしています。私のバージョンは 0.9.7.5 で、約 100 万の「行」を挿入しました。各行には、date_time:"date" というラベルの付いた約 1000 の列があり、「100.0」などの対応する値が含まれています (これはまだ巨大ではありません)。
ただし、ハイパーテーブルを起動するたびに、hypertable.cfg ファイルで (私が知っている) メモリ チューニングを行っているにもかかわらず、ヒープ フラグメンテーションを考慮する場合でも、ハイパーテーブル プロセスはすべての RAM を使用し、スワップを開始します。
なぜこれが起こっているのか、そしておそらくこの非常に迷惑な行動を止める方法について誰かが知っているでしょうか?
ハイパーテーブル ソフトウェアは、非常に強力で高速でありながら、その使いやすさに大いに満足していますが、RAM を永遠に投げることができないため、この問題が解決策を見つけられない場合は、よりメモリ制御可能な cassandra に切り替えたくなるかもしれません。
どうもありがとう、
ニコラス