https://github.com/databricks/spark-avro#with-spark-shell-or-spark-submitに記載されている手順に従って、spark-shell の起動中に spark-avro パッケージを含めようとしています。
spark-shell --packages com.databricks:spark-avro_2.10:2.0.1
私の意図は、パッケージにある SchemaConverter クラスを使用して、avro スキーマを spark スキーマ型に変換することです。
import com.databricks.spark.avro._ ... //colListDel は、何らかの機能上の理由で削除される avsc からのフィールドのリストです。
for( field <- colListDel){
println(SchemaConverters.toSqlType(field.schema()).dataType);
}
...
上記の for ループを実行すると、以下のエラーが発生します。
<console>:47: error: object SchemaConverters in package avro cannot be accessed in package com.databricks.spark.avro
println(SchemaConverters.toSqlType(field.schema()).dataType);
不足しているものがあるかどうかを提案するか、scala コードに SchemaConverter を含める方法を教えてください。
以下は私の envt の詳細です: Spark バージョン: 1.6.0 Cloudera VM 5.7
ありがとう!