最近、hadoop バルク ロードを使用してデータを hbase に入れます。まず、HDFS API を呼び出して、hadoop hdfs のファイルにデータを書き込みます。合計 7000,000 行のデータで、サイズは 503MB です。次に、org.apache.hadoop.hbase.mapreduce.ImportTsvとorg.apache.hadoop.hbase.mapreduce.LoadIncrementalHFilesを使用してデータを hbase に入れます。
私が行ったほとんどのインポート作業は、バルクロード ツールを使用してデータを hbase に入れることでした。バルクロードが完了した後、hbase テーブルが 1.96GB であることがわかりました。hdfs のレプリケーションは 1 です。理由はわかりません。