約 1 MB の cassandra 列に保存されている有効な JSON 文字列がありますが、(最悪の場合) 50 MB まで増加する可能性があり、いつでも 1000 人以上が取得できます。文字列が取得されると、ノードで操作を行う前に JSON.parse が呼び出されて文字列が JSON オブジェクトに変換されます
ほとんどの場合、操作は単一のキーと値を引き出すことです。
最初に「全体」の文字列をオブジェクトに変換し、単一の key:value を取り出すだけでは効率が悪いと思われるので、必要なキーが見つかるまで文字列を for ループする方がよいと考えました。 .
ただし、これには、ネストされたオブジェクト、エスケープされた文字などの課題があります
1) JSON 文字列を反復処理できる単純な JSON 文字列パーサーはありますか?
2) 別の方法は、JSON オブジェクトを memcache に保存することです。これは重複データ (cassandra と memcache) を意味しますが、異なる形式 (それぞれ文字列とオブジェクト) です。これはより効率的ですか、それとも少し多めですか?
3) clarinetを見ましたが、著者のテストでは、JSON.parse が大きなファイルでクラリネットよりも優れていることが示されています。
4) 他のアイデアはありますか?