Sqoop を使用して多数の大きな MySQL テーブルを HDFS にインポートするときに、 --hive-import フラグを含めるのを忘れていました。これらのテーブルを HDFS に配置したので、(LOAD DATA ステートメントを自分で記述せずに) データを Hive にロードする簡単な方法があるかどうか疑問に思っています。
sqoop create-hive-table を使用してみました:
./bin/sqoop create-hive-table --connect jdbc:mysql://xxx:3306/dw --username xxx --password xxx --hive-import --table tweets
これにより正しいハイブ テーブルが作成されましたが、データはインポートされませんでした。ここで単純なものが欠けているような気がします...
記録として、Sqoop 1.4.1 で Elastic MapReduce を使用しています。