私は多くの SQL サーバーを使用しているため、データが Hadoop に入ったときにデータがどうなるかを正確に把握するのは少し難しい場合があります。
私の理解では、約 200k 程度のテキスト形式の書籍がある場合、データを Hadoop にコピーするだけで検索可能になります。ただし、このデータは HDFS がより最適化されるようにブロックの一部になるのでしょうか、それとも HDFS で 200k ファイルのままでパフォーマンスが損なわれるのでしょうか?
また、Bigtable でしばしばタブレットと呼ばれるものはブロックですか?
どうもありがとうございました。フライマリオ