0

--as-sequencefile オプションを使用して、MySql から HDFS にテーブルをインポートしました。次に、STORED AS SEQUENCEFILE 句と、Sqoop でインポートされたシーケンス ファイルが存在する HDFS の場所を指す LOCATION 句を使用して Hive テーブルを作成しました。

Sqoop インポート コマンド:

sqoop import --connect jdbc:mysql://sandbox.hortonworks.com:3306/hirw --username root --password hadoop --table stocks -m 2 --as-sequencefile  --target-dir /user/root/output/hirw/sqoopimport/stocks_seq --delete-target-dir

ハイブ テーブルの作成

CREATE TABLE stocks_sqoop_seq (id int, symbol string, name string, trade_date date, close_price float, volume int, update_time timestamp)  STORED AS SEQUENCEFILE LOCATION '/user/root/output/hirw/sqoopimport/stocks_seq';

テーブルをクエリしようとすると、例外で失敗します

Failed with exception java.io.IOException:java.lang.RuntimeException: java.io.IOException: WritableName can't load class: stocks

私は何かが欠けていますか

4

1 に答える 1

0

入力および出力フォーマットも宣言する必要があります。次のようにテーブルを作成します。

CREATE TABLE stocks_sqoop_seq (
  id int, symbol string, 
  name string, trade_date date, 
  close_price float, volume int, 
  update_time timestamp)  
STORED AS SEQUENCEFILE 
STORED AS INPUTFORMAT 'org.apache.hadoop.mapred.SequenceFileInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat'
LOCATION '/user/root/output/hirw/sqoopimport/stocks_seq'\;
于 2016-06-06T08:44:35.893 に答える