いくつかの前処理の後に HAWQ から GREENPLUM にデータをプッシュしたいこの不安定なクライアントがいます。これを行う方法はありますか?そうでない場合、HAWQ が実行されている HDFS から読み取る外部テーブルを greenplum で作成することは可能ですか?
どんな助けでも大歓迎です。
いくつかの前処理の後に HAWQ から GREENPLUM にデータをプッシュしたいこの不安定なクライアントがいます。これを行う方法はありますか?そうでない場合、HAWQ が実行されている HDFS から読み取る外部テーブルを greenplum で作成することは可能ですか?
どんな助けでも大歓迎です。
HAWQ は Greenplum と同じで、基盤となるストレージのみが hdfs です。
1 つの方法は、HAWQ で外部 (書き込み可能) テーブルを作成して、データをファイルに書き込むことができます。この後、Greenplum で外部 (読み取り可能) テーブルを作成して、作成したファイルからデータを読み取ることができます。
別の方法標準入出力を使用して、あるサーバーから別のサーバーにコピーできます。私は、開発環境から本番環境に、またはその逆にデータをプッシュする必要があるときに、何度も使用します。
別の方法特定のテーブルに対して pg_dump/gp_dump を使用してバックアップを作成し、pg_restore/gp_restore を使用して復元することができます
ありがとう