0

私は多くの SQL サーバーを使用しているため、データが Hadoop に入ったときにデータがどうなるかを正確に把握するのは少し難しい場合があります。

私の理解では、約 200k 程度のテキスト形式の書籍がある場合、データを Hadoop にコピーするだけで検索可能になります。ただし、このデータは HDFS がより最適化されるようにブロックの一部になるのでしょうか、それとも HDFS で 200k ファイルのままでパフォーマンスが損なわれるのでしょうか?

また、Bigtable でしばしばタブレットと呼ばれるものはブロックですか?

どうもありがとうございました。フライマリオ

4

1 に答える 1