問題タブ [hawq]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - HDFS - 最後の予期された列の後の余分なデータ
ソースシステムとターゲットシステムがあります。talend ツールを使用して、SQL サーバー 2012 から Pivotal Hadoop (PHD 3.0) バージョンにデータをインポートしようとしています。
取得エラー:
私たちは試しました
[hdfs@mdw ~]$ hdfs dfs -cat /path/to/hdfs|grep 3548 として BAD 行を特定しました。
外部表とFormat句の構造
所見 :余分なデータの原因となる余分なセミコロンが表示されました。しかし、私はまだ正しいフォーマット句を提供できません。余分なデータ列エラーを削除する方法を教えてください。
どのフォーマット句を使用すればよいですか。
それについての助けは大歓迎です!
hawq - HAWQ 停止クラスタに失敗しました
HAWQ
ソースコードからインストールしました。クラスタを初期化して起動した後HAWQ
、 で停止しようとしました"hawq stop cluster"
。しかし、それは失敗しました。
エラーは次のとおりです。
現在、クラスターを停止する別の方法、つまり、マスターとセグメントを別々に停止する方法を使用しましたpg_ctl
。
このエラーに関する情報は役に立ちます。ありがとう!
indexing - 現在、HAWQ が非ヒープ テーブルのインデックスをサポートしていないのはなぜですか?
インデックスの保存、インデックスの更新など、インデックスをサポートする上でどのような問題が考慮されるのだろうか。
ambari - PIVOTAL HAWQ - PXF 接続が機能しない
小さな Hadoop-HAWQ クラスターがあります。その中で、外部テーブルを読み込もうとしたとき。
取得エラー:
この pxf エラーにより、選択クエリを介して外部テーブルを読み取れません。
試した:
ambari 経由で PXF を再起動すると、すべてが緑色になります。
それについて何か助けていただければ幸いです。
bash - PIVOTAL HAWQ バックアップ - シェル スクリプト エラー
シェル スクリプトを使用して PIVOTAL HAWQ データベースをバックアップしようとしています。
取得エラー:
入力シェルスクリプト:backup_db.sh
CRONTAB :シェル スクリプトのエントリ - */5 * * * * /home/gpadmin/backup_db.sh > /tmp/bkp.log
シェルを実行してデータを手動でダンプする場合。しかし同時に、5分ごとに実行されるcrontab経由では機能しません。
それに関するどんな助けも大歓迎です。
greenplum - HAWQ がランダムに配布され、各セグメントのディスク容量がほぼいっぱいになります。新しいデータノードを追加
HAWQの仕様書を読んでいます。質問があります: 3 つのデータ ノード クラスターにランダムに分散するテーブル (「table_random」など) を作成しましたが、各セグメントのディスク容量がほとんど不足しています。次に、クラスターに新しいデータノードを追加し、テーブル「table_random」にデータを挿入すると、
ありがとう
greenplum - Pivotal HAWQ - Centos 7 のインストール
小さな Hadoop クラスターがあります。Hadoop HDP バージョンがインストールされています。 Env: VM は os で構成されます: Centos 7
直面している互換性の問題: HAWQ の互換性の問題は、Centos 7 ではまだサポートされていないためです。制約: Centos 7 には既に Hadoop クラスターがインストールされています。
それに関するどんな助けも大歓迎です。