1

Cassandra 2.2.8、Win7、JDK8、Spark2 を実行し、CP に含まれている: Cassandra コア 3.12、spark-cassandra-2.11、Spark-cassandra-java-2.11、Spark2.11、spark-network-common_2.11、Guava- 16.0.jar、sacala2.11.jar など 基本的な例を実行しようとすると、問題なくコンパイルされますが、実行しようとすると、最初の行自体でエラーが発生します。 SparkConf conf = new SparkConf(); java.lang.NoClassDefFoundError: org/spark_project/guava/cache/CacheLoader

spark-network-commonが欠落していると、このエラーが発生するはずですが、私はそれを持っています。競合する jar はありますか? ありがとう

4

2 に答える 2

1

したがって、答えは次のとおりです。答えは正確にはわかりませんが、問題は解決しました。pom を使用して、Eclipse で Maven プロジェクトを作成しました。それはいくつか(ダース)のjarファイルを持ち込み、最終的に機能しました. そのため、おそらくいくつかの競合/欠落しているjarがあります-調べようとしました-把握するのは困難です。

于 2016-12-08T15:40:03.807 に答える