以下のコードは、scala を使用して HDFS に書き込んだ方法です。このデータを照会するための Hive テーブルを作成するための HQL 構文は何ですか?
import com.databricks.spark.avro._
val path = "/user/myself/avrodata"
dataFrame.write.avro(path)
私が見つけた例では、スキーマを記述する avro.schema.literal または実際のavroスキーマへのavro.schema.urlを提供する必要があります。
スパークシェルでこれを読むために必要なことは次のとおりです。
scala> import com.databricks.spark.avro._
scala> val df = sqlContext.read.avro("/user/myself/avrodata")
scala> df.show()