Sqoop を使用して、MySQL から HDFS への増分インポートを正常に実行できます。
sqoop job -create JOBNAME ... --incremental append --check-column id --last-value LAST
sqoop job -exec JOBNAME
次のようなログメッセージで終了します
INFO tool.ImportTool: Saving incremental import state to the metastore
INFO tool.ImportTool: Updated data for job: JOBNAME
ジョブを調べると、incremental.last.value が正しく更新されていることがわかります。
同じ手順を試みて、ジョブの定義に「--hive-import」を追加すると、ジョブは正常に実行されますが、incremental.last.value は更新されません。
これはバグですか?意図した動作?MySQL からデータを段階的にインポートし、Hive 経由で利用できるようにする手順を知っている人はいますか?
私は基本的に、Hadoop クラスターを MySQL データベースの読み取りスレーブにして、高速分析を行いたいと考えています。Hive 以外の解決策がある場合 (Pig で問題ありません)、それも聞きたいです。