0

これまでにsbtパッケージとsbt runを使用してビルドおよび実行したscalaプロジェクトがあります。次に、それらを別のマシンに移植する必要があります。したがって、JARファイルが下に作成されていることがわかります

$PROJECT_HOME/target/scala-2.9.3/My-app_2.9.3-1.0.jar

しかし、それらを使用して実行しようとすると、

java -jar target/scala-2.9.3/My-app_2.9.3-1.0.jar

エラーメッセージは次のようになります。

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkContext
    at java.lang.Class.getDeclaredMethods0(Native Method)
    at java.lang.Class.privateGetDeclaredMethods(Class.java:2451)
    at java.lang.Class.getMethod0(Class.java:2694)
    at java.lang.Class.getMethod(Class.java:1622)
    at sun.launcher.LauncherHelper.getMainMethod(LauncherHelper.java:494)
    at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:486)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkContext
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:423)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:356)

java.lang.NoClassDefFoundError: org/apache/spark/SparkContext 例外が発生します。JARがクラスの定義を見つけたりロードしたりできない場合、一般的に NoClassDefFoundError が発生することを私は知っています。しかし、私のsbtにはクラスが含まれています。

name := "My App"

version := "1.0"

scalaVersion := "2.9.3"

libraryDependencies += "org.apache.spark" %% "spark-core" % "0.8.0-incubating"

エラーの理由についての指針をいただければ幸いです。ありがとう!

4

1 に答える 1

3

すべての依存関係 (あなたの場合は spark) を含むファットjar をビルドするか、spark アーティファクトをクラスパスに手動で追加する必要があります。最初のケースでは、おそらく sbt 用に onejar または sbt-assembly プラグインを使用する必要があります。

于 2013-10-25T08:54:00.417 に答える