問題タブ [apache-hive]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
12531 参照

hive - where 句のハイブ サブクエリ (Select * from table 1 where dt > (Select max(dt) from table2) )..代替案を提案してください

ハイブのようなものを探しています

明らかに、ハイブは where 句でのサブクエリをサポートしていません。また、結合または半結合を使用しても、= のみを比較し、> は比較しません (私の知る限り)。

ハイブで同じクエリを書くための代替ソリューションを提案してもらえますか?

0 投票する
1 に答える
1048 参照

hadoop - Hive メタストア SQL サーバー:thrift.transport.TTransportException: キータブが指定されていません

実行しようとしていますHive metastore

しかし、それは以下のエラーを投げています。

org.apache.thrift.transport.TTransportException: org.apache.hadoop.hive.thrift.HadoopThriftAuthBridge20S$Server.(HadoopThriftAuthBridge20S.java:337) でキータブが指定されていません**。 createServer(HadoopThriftAuthBridge20S.java:104) org.apache.hadoop.hive.thrift.HadoopThriftAuthBridge20S.createServer(HadoopThriftAuthBridge20S.java:74) org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5771) org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5701) で sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) で sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) で.reflect.DelegatingMethodAccessorImpl.スレッド "main" で例外が発生しましたorg.apache.thrift.transport.TTransportException: org.apache.hadoop.hive.thrift.HadoopThriftAuthBridge20S$Server.(HadoopThriftAuthBridge20S.java:337) でキータブが指定されていません。 HadoopThriftAuthBridge20S.java:104) org.apache.hadoop.hive.thrift.HadoopThriftAuthBridge20S.createServer(HadoopThriftAuthBridge20S.java:74) org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5771) org .apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5701) (sun.reflect)。NativeMethodAccessorImpl.invoke0(Native Method) の sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) の sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) の java.lang.reflect.Method.invoke(Method. java:606) org.apache.hadoop.util.RunJar.main(RunJar.java:212) で

0 投票する
0 に答える
2110 参照

hadoop - Hive Server2 が停止しており、pid ファイルが存在する [失敗]

シンプルな 2 ノードの cloudera CDH5 クラスターがあり、スレーブ マシンで Hive と Hue をセットアップしました。

CLI Viz を使用してハイブで作業できます。データベースとテーブルを作成しているときに、hue で Hive/beeswax を構成できません。Hive Server2 が停止していることが原因である可能性があります。この問題を解決するために私を助けてください。

詳細は次のとおりです。

/etc/hosts
192.168.1.190 マスター
192.168.1.191 スレーブ

/etc/hive/conf/hive-site.xml

エラー ログ:
/var/log/hive/hive-server2.log

connect(PlainSocketImpl.java:200) で java.net.SocksSocketImpl.connect(SocksSocketImpl.java:366) で java.net.Socket.connect(Socket.java:529) で org.apache.thrift.transport.TSocket.open (TSocket.java:180) ... 26 その他) java:216) ... 24 more 2015-04-16 19:58:25,074 INFO [main]: session.SessionState (SessionState.java:start(381)) - この時点では Tez セッションは必要ありません。hive.execution.engine=mr. 2015-04-16 19:58:26,639 エラー [スレッド 6]: thrift.ThriftCLIService (ThriftBinaryCLIService.java:run(115)) - エラー: org.apache.thrift.transport.TTransportException: アドレス 0.0 で ServerSocket を作成できませんでした.0.0/0.0.0.0:10000。org.apache で。

どうもありがとうございます :-)

0 投票する
2 に答える
9126 参照

hive - Hive の HBase テーブルにアクセスするにはどうすればよいですか? その逆も同様です。

開発者として、既存の MySQL テーブルからデータをインポートして、プロジェクト用の HBase テーブルを作成しましたsqoop job。問題は、データ アナリスト チームが MySQL 構文に精通しており、HIVEテーブルを簡単にクエリできることです。それらのために、HIVE で HBase テーブルを公開する必要があります。HIVE にデータを再入力してデータを複製したくありません。また、データを複製すると、将来的に一貫性の問題が発生する可能性があります。

データを複製せずに HIVE で HBase テーブルを公開できますか? はいの場合、どうすればよいですか?また、insert/update/deleteHBase テーブルのデータを更新すると、更新されたデータが問題なく HIVE に表示されますか?

場合によっては、データ分析チームがテーブルを作成し、HIVE にデータを入力します。それらを HBase に公開できますか? はいの場合、どのように?

0 投票する
0 に答える
324 参照

hadoop - 疑似ノード クラスタで pig を介して hdfs ファイルを読み取れない

私はこの非常に基本的なテストを行っています (hadoop 2.7 と pig 0.14 の両方をインストールした直後)

ファイルは hdfs に存在します -

ただし、次を実行すると、

次のエラーメッセージが表示されます -

さらに調査すると、もう少し多くのことが明らかになります.示されているように、hdfs 上のファイル (pig 内から ls コマンドを介して) と、hadoop fs コマンドを使用したシェル プロンプトからもファイルを確認できます。ただし、pig も Hive も hdfs 上のファイルを見ることができません。

また、線虫のポートをいじってみました (異なる値 8020、9000、50070 を試しました) が、動作は同じままです。線虫とデータノードのログも調べてみましたが、それ以上は見つかりませんでした...

深刻な助けが必要です!!!

いくつかの質問への回答

さらにテストすると、hive は hdfs を使用できるが、pig はまだ使用できないことが明らかになりました。ハイブに外部テーブルを作成し、サンプルファイル「ファミリー」を正常に指すことができました

0 投票する
1 に答える
1699 参照

hadoop - alter drop コマンドを使用してパーティションをドロップするときに、ハイブからパーティション メタデータをドロップする方法

alter コマンドを使用して、ハイブ テーブル内のすべてのパーティションを削除しました。

alter table emp drop partition (hiredate>'0');

パーティションを削除した後でも、パーティションのメタデータが表示されます。このパーティションのメタデータを削除するにはどうすればよいですか? 新しいパーティションに同じテーブルを使用できますか?

ここに画像の説明を入力

0 投票する
1 に答える
86 参照

hadoop - Hadoop クラスターにデータをアップロードする必要があるスレーブ

2 台のマシンで Hadoop クラスターをセットアップしました。リアルタイム プロジェクトにクラスターを実装しようとしています。データのアップロードに関する複数ノード クラスターの情報が必要です。データ ノードが 9 つあるとします。どのスレーブ ノードが必要かを考えてみましょう。データをアップロードします。データを 2 つのスレーブ ノードにアップロードすることを選択できますか? データを hdfs にアップロードする場合、データは別のスレーブ ノードに複製されますか? 現在、HDFS が使用する場所 /tmp がいっぱいの場合に /tmp 場所を使用する hdfs を観察しました。