これは、Hiveで次のように実行できます。
まず、JSON SerDe(Serializer / Deserializer)が必要です。私が見た中で最も機能的なものはhttps://github.com/rcongiu/Hive-JSON-Serde/です。Peter SankauskasのSerDeは、この複雑なJSONを処理できないようです。この記事の執筆時点では、Mavenを使用してSerDeをコンパイルし、Hiveセッションが到達できる場所にJARを配置する必要があります。
次に、JSON形式を変更する必要があります。その理由は、Hiveは厳密に型指定された配列のビューを使用するため、整数などを混在させることはできません。次のような構造体に切り替えることを検討してください。
{"str": {
n1 : 1,
n2 : 134,
n3 : 61,
s1: "Matt",
st1: {"type":"registered","app":491,"value":423,"value2":12344},
ar1: ["application"],
ar2: [],
s2: "49:0"
} }
次に、JSONをすべて1行に配置する必要があります。これがHiveとSerDeのどちらの癖なのかはわかりませんが、実行する必要があります。
次に、データをHDFSにコピーします。
これで、テーブルを定義してクエリを実行する準備が整いました。
ADD JAR /path/to/jar/json-serde-1.1.2-jar-with-dependencies.jar;
CREATE EXTERNAL TABLE json (
str struct<
n1 : int, n2 : int, n3 : int,
s1 : string,
st1 : struct < type : string, app : int, value : int, value2 : int>,
ar1 : array<string>,
ar2 : array<string>,
s2 : string
>
)
ROW FORMAT SERDE 'org.openx.data.jsonserde.JsonSerDe'
LOCATION '/hdfs/path/to/file';
これを適切に配置すると、次のような興味深いネストされたクエリを実行できます。
select str.st1.type from json;
最後になりましたが、これはHiveに固有のものであるため、質問とタグを更新する価値があります。