Я использую Scala для создания и запуска приложения Spark локально.
My build.sbt:
name : "SparkDemo"
version : "1.0"
scalaVersion : "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.2.0" exclude("org.apache.hadoop", "hadoop-client")
libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.2.0"
libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.6.0" excludeAll(
ExclusionRule(organization = "org.eclipse.jetty"))
libraryDependencies += "org.apache.hadoop" % "hadoop-mapreduce-client-core" % "2.6.0"
libraryDependencies += "org.apache.hbase" % "hbase-client" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-server" % "0.98.4-hadoop2"
libraryDependencies += "org.apache.hbase" % "hbase-common" % "0.98.4-hadoop2"
mainClass in Compile := Some("demo.TruckEvents")
Во время выполнения я получаю исключение:
Исключение в потоке "main" java.lang.ExceptionInInitializerError во время вызова... Вызывается: java.lang.SecurityException: class Информация о подписчике "javax.servlet.FilterRegistration" не соответствует подписывающая информация других классов в одном пакете
Здесь вызывается исключение:
val sc = new SparkContext("local", "HBaseTest")
Я использую плагин IntelliJ Scala/SBT.
Я видел, что у других людей также есть эта проблема предложение для решения. Но это сборка maven... Не так ли здесь sbt? Или любое другое предложение, как я могу решить эту проблему?