100 億行を超える Oracle テーブルをクエリした経験はありますか? テーブルは適切に分割されています これは「通常の」マシン (クラスタ化された) を使用して実行できますか、それとも巨大なマシンが必要ですか?
ありがとう!
行数自体は問題ではありません。システムが仕様を満たしているかどうかは、データアクセスパターン、ストレージパフォーマンス(通常は非常に小さいサイズ)、システムにアクセスするセッションの数、事前に計算された要約の存在などによっても決まります。
ですから、必ずしも特別なハードウェアが必要だとは言えません。
テーブルがパーティション分割されていて、クエリでパーティション キーが指定されていると仮定すると、テーブルのサイズは関係ありません。唯一気にすることは、クエリを実行するためにスキャンする必要があるパーティションのサイズです。これは通常、最小限のハードウェア リソースで実行できる 1 つまたは 2 つのパーティションにすぎません。
もちろん、100 億行のデータがある場合、それは通常、比較的大きな企業向けのデータ ウェアハウスを使用していることを意味し、これがより大きな問題です。大企業には、データ ウェアハウスに対してレポートできるようにしたい多数の従業員がいます。彼らは、データ ウェアハウスにヒットする必要がある定型レポートを多数持っています。多数のデータ フィードがあります。データ マートには、データを入力する必要がある多数のデータ マートがあります。それらは比較的短い負荷ウィンドウを持っています。これらの要件により、より多くのハードウェアが必要になり、場合によっては、Exadata ボックスのような特殊なハードウェアが必要になります。