2

以下のように orc ハイブ テーブルを作成しました。

  • orc TBLPROPERTIES ('transactional'='true') として格納された 2 つのバケットに (id) によってクラスター化されたテーブル forest41 (id int、type string) を作成します。

    テーブル forest41 値 (1,'赤'),(2,'白'),(3,'黒') に挿入します。

Spark beeline からのデータを表示しようとすると、データが表示されず、例外もスローされません。

以下は私が実行したクエリです: select * from default.forest40 limit 10

ただし、spark ジョブ コンソールでは、上記のクエリに関連するジョブの 1 つが表示されます - Skipped Stages (1) -- Spark JDBC Server Query

4

1 に答える 1

1

Hive のバケット機能を使用して Hive テーブルを作成しましたが、Spark はサポートしていません。

このリンクにアクセスしてください http://spark.apache.org/docs/latest/sql-programming-guide.html#unsupported-hive-functionality

于 2015-11-24T06:08:21.873 に答える