私のaws EC2マシンにZeppelinをインストールして、スパーククラスターに接続しました。
Spark バージョン: スタンドアロン: spark-1.2.1-bin-hadoop1.tgz
私のユースケースで S3 のファイルにアクセスしようとすると、spark クラスターに接続できますが、次のエラーが発生します。
コード:
sc.hadoopConfiguration.set("fs.s3n.awsAccessKeyId", "YOUR_KEY_ID")
sc.hadoopConfiguration.set("fs.s3n.awsSecretAccessKey","YOUR_SEC_KEY")
val file = "s3n://<bucket>/<key>"
val data = sc.textFile(file)
data.count
file: String = s3n://<bucket>/<key>
data: org.apache.spark.rdd.RDD[String] = s3n://<bucket>/<key> MappedRDD[1] at textFile at <console>:21
ava.lang.NoSuchMethodError: org.jets3t.service.impl.rest.httpclient.RestS3Service.<init>(Lorg/jets3t/service/security/AWSCredentials;)V
at org.apache.hadoop.fs.s3native.Jets3tNativeFileSystemStore.initialize(Jets3tNativeFileSystemStore.java:55)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
次のコマンドで Zeppelin をビルドしました。
mvn clean package -Pspark-1.2.1 -Dhadoop.version=1.0.4 -DskipTests
Hadoop プロファイル "-Phadoop-1.0.4" でビルドしようとすると、存在しないという警告が表示されます。
このスパークのウェブサイトに記載されている -Phadoop-1 も試しました。しかし、同じエラーが発生しました。 1.x から 2.1.x の hadoop-1
ここで何が欠けているか教えてください。