4

Apache NiFi レシーバーを使用する Spark ストリーミング Scala プロジェクトがあります。プロジェクトは Eclipse/Scala IDE で正常に動作するので、今すぐ展開用にパッケージ化したいと考えています。として追加すると

libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"

sbt はそれが Scala ライブラリであると想定し、それを解決しようとします。

NiFi レシーバーとそのすべての依存関係をプロジェクトの SBT ファイルに追加するにはどうすればよいですか?

また、sbt が解決しようとする代わりに、依存関係をローカル ディレクトリにピントすることは可能ですか?

前もって感謝します。

これが私のsbtファイルの内容です:

name := "NiFi Spark Test"

version := "1.0"

scalaVersion := "2.10.5"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
4

2 に答える 2

5

libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"

ダブル % は、scala バージョンをサフィックスとして Maven アーティファクトに追加するために使用されます。異なる scala コンパイラのバージョンでは互換性のないバイトコードが生成されるため、これが必要です。Maven の Java ライブラリを使用する場合は、1%文字を使用する必要があります。

libraryDependencies += "org.apache.nifi" % "nifi-spark-receiver" % "0.3.0"
于 2015-11-29T18:41:20.653 に答える
1

また、プロジェクトが依存するライブラリを lib フォルダーに配置できることもわかりました。これらのライブラリは、アセンブリ中に選択されます。

于 2015-11-30T04:35:28.940 に答える