Hadoop クラスターをセットアップし (Cloudera Manager を介して Cloudera ディストリビューションを使用)、Hue インターフェイスを使用していくつかの Hive クエリを実行しています。
すべてのクエリが正常に実行され、カスタム UDF のデプロイにも成功しました。
しかし、UDF を展開しているときに、非常に苛立たしいバージョン管理の問題に遭遇しました。UDF クラスの最初のバージョンでは、StackOverflowError
.
このエラーを修正し、UDF をデプロイして、Hive コマンド ラインから正常に使用できることを確認しました。
その後、もう一度 Hue と Beeswax を使用したときに、同じエラーが発生し続けました。UDF Java クラス名を変更することによってのみ、これを修正できました。( からLower
までLower2
)。
さて、私の質問は、これらの種類のバージョンの問題に対処する適切な方法は何ですか?
私が理解していることから、左側の便利なフォーム フィールドを使用して jar を追加すると、分散キャッシュに追加されます。では、分散キャッシュを更新/クリアするにはどうすればよいですか? LIST JARS;
( Hive / Beeswax 内から etc. を実行できませんでした。構文エラーが発生します。)