問題タブ [hawq]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
3 に答える
89 参照

resourcemanager - リソース マネージャは HAWQ でリソースをどのように取得しますか?

HAWQ では、リソース マネージャはどのようにリソースを取得しますか? また、ユーザーごとに特定できるリソースの粒度はどのようなものですか?

0 投票する
5 に答える
69 参照

executor - クエリが終了した後、HAWQ は QE プロセスを再利用しますか?

Query Executor プロセスは、クエリを実行するためにセグメント上に作成されます。クエリを実行すると、動作中の QE が表示されます。ただし、クエリが終了しても、アイドル状態のままです。クエリが終了した後、HAWQ は QE プロセスを再利用しますか?

0 投票する
4 に答える
95 参照

hawq - hawq と他のデータベースでサポートされている pl 言語の違いは何ですか?

hawq と他のデータベースでサポートされている pl 言語の違いは何ですか? サポートされている pl 言語を hawq と他のデータベースで比較したいと考えています。hawq は複数のデータベースをサポートしていますか? それとも、hawq は将来さらにサポートする予定ですか?

0 投票する
4 に答える
77 参照

hawq - HAWQ はさまざまな kill シグナルをどのように処理しますか?

マスター リソース マネージャー プロセスを kill -QUIT すると、プロセスが再起動して正常に実行されます。しかし、マスター リソース マネージャー プロセスを -ABRT で強制終了すると、プロセスは再起動しますが、HAWQ でプロセスが再起動します。では、HAWQ はさまざまなキル シグナルをどのように処理するのでしょうか?

0 投票する
5 に答える
351 参照

hortonworks-data-platform - PXF JSON プラグイン エラー

HDP 2.4 および HAWQ 2.0 の使用

HDFS パスに保持されている json データを HAWQ 外部テーブルに読み込みたいですか?

以下の手順に従って、新しい json プラグインを PXF に追加し、データを読み取ります。

  1. https://bintray.com/big-data/maven/pxf-plugins/view#からプラグイン「json-pxf-ext-3.0.1.0-1.jar」をダウンロードし ます

  2. プラグインをパス /usr/lib/pxf にコピーします。

  3. 外部テーブルの作成

    CREATE EXTERNAL TABLE ext_json_mytestfile ( created_at テキスト、id_str テキスト、テキスト テキスト、ソース テキスト、「user.id」INTEGER、「user.location」テキスト、「coordinates.type」テキスト、「coordinates.coordinates[0]」 DOUBLE PRECISION、座標.座標[1]" DOUBLE PRECISION) LOCATION ('pxf://localhost:51200/tmp/hawq_test.json' '?FRAGMENTER=org.apache.hawq.pxf.plugins.hdfs.HdfsDataFragmenter' '&ACCESSOR=org. apache.hawq.pxf.plugins.json.JsonAccessor''&RESOLVER=org.apache.hawq.pxf.plugins.json.JsonResolver''&ANALYZER=org.apache.hawq.pxf.plugins.hdfs.HdfsAnalyzer') FORMAT 'CUSTOM ' (FORMATTER='pxfwritable_import') LOG ERRORS INTO err_json_mytestfile SEGMENT REJECT LIMIT 10 ROWS;

上記の DDL テーブルを実行すると、正常に作成されます。その後、選択クエリを実行しようとしています

しかし、エラーが発生しています: -

エラー: 'localhost:51200' からのリモート コンポーネント エラー (500): タイプ例外レポート メッセージ java.lang.ClassNotFoundException: org.apache.hawq.pxf.plugins.json.JsonAccessor の説明 サーバーで内部エラーが発生したため、実行できませんでしたこのリクエスト。例外 javax.servlet.ServletException: java.lang.ClassNotFoundException: org.apache.hawq.pxf.plugins.json.JsonAccessor (libchurl.c:878) (seg4 sandbox.hortonworks.com:40000 pid=117710) (dispatcher.c :1801) 詳細: 外部テーブル ext_json_mytestfile

どんな助けでも大歓迎です。

0 投票する
3 に答える
124 参照

hawq - HAWQ はどのようにクエリ プランをスライスに分割しますか?

HAWQ のクエリ プランは、独立して実行できる複数のスライスに分割できます。HAWQ はどのようにクエリ プランをスライスに分割しますか?