問題タブ [external-tables]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - 外部テーブルをマネージド ハイブ テーブルに移動する必要があるのはなぜですか?
私は Hadoop を初めて使用し、Hive を学習しています。
Hadoop 決定版ガイド第 3 版では、ページ番号。428 最後の段落
HIVEの外部テーブルに関する以下の段落がわかりません。
「一般的なパターンは、外部テーブルを使用して HDFS に格納された初期データセット (別のプロセスによって作成された) にアクセスし、Hive 変換を使用してデータを管理された Hive テーブルに移動することです。」
上記のフレーズの意味を簡単に説明できる人はいますか?
hadoop - HIVE 外部テーブル - 空の文字列を NULL に設定
現在、Amazon EMR に HIVE 0.7 インスタンスがあります。Hive 0.11 を使用して、新しい EMR クラスターでこのインスタンスの複製を作成しようとしています。
私の 0.7 インスタンスには、空の文字列を NULL に設定する外部テーブルがあります。テーブルの作成方法は次のとおりです。
データは次のようにテーブルに追加されます。
これは 0.7 ではうまく機能しますが、0.11 では空の文字列を NULLS として評価していないようです。興味深いことに、同じデータとテーブル定義で通常のテーブルを作成すると、空の文字列が予想どおり NULL として評価されるようです。
0.11 の外部テーブルでこれを行う別の方法はありますか?
hadoop - impala外部テーブルでファイルヘッダーをスキップするには?
HDFS に 78 GB サイズのファイルがあります
その上に Impala 外部テーブルを作成して、利用可能なデータのグループ化と集計を実行する必要があります
問題 ファイルにヘッダーが含まれています。
質問 ファイルの読み取り中にファイルからヘッダーをスキップし、残りのデータに対してクエリを実行する方法はありますか。
ファイルをローカルにコピーして問題を解決する方法はありますが、ヘッダーを削除してから、更新されたファイルを HDFS に再度コピーしますが、ファイル サイズが大きすぎるため実行できません。
どなたか心当たりのある方教えてください...
任意の提案をいただければ幸いです....
前もって感謝します
sql - SP での外部テーブルの作成
私がしようとしているのは、csv からデータを読み取り、挿入後に外部テーブルに挿入することです。元のテーブルを外部テーブルの値で更新する必要があります。
sqlloader を使用してテーブルを更新できなかったため、リンクに従ってフォローしました
http://asktom.oracle.com/pls/asktom/f?p=100:11:0::::P11_QUESTION_ID:70109473088345
両方を組み合わせるためにストアドプロシージャを作成する必要があるため、この仕事をしなければなりません。
どのようにできるのか?それは正しい方法ですか?
外部テーブルを削除してもよろしいですか?