Это довольно пустой вопрос.
Я пытаюсь узнать о SparkSQL. Я следовал примеру, описанному здесь: http://spark.apache.org/docs/1.0.0/sql-programming-guide.html
Все отлично работает в Spark-shell, но когда я пытаюсь использовать sbt для создания пакетной версии, я получаю следующее сообщение об ошибке:
object sql is not a member of package org.apache.spark
К сожалению, я довольно новичок в sbt, поэтому я не знаю, как исправить эту проблему. Я подозреваю, что мне нужно включить дополнительные зависимости, но я не могу понять, как это сделать.
Вот код, который я пытаюсь скомпилировать:
/* TestApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
case class Record(k: Int, v: String)
object TestApp {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext._
val data = sc.parallelize(1 to 100000)
val records = data.map(i => new Record(i, "value = "+i))
val table = createSchemaRDD(records, Record)
println(">>> " + table.count)
}
}
Ошибка помечена в строке, где я пытаюсь создать SQLContext.
Вот содержимое файла sbt:
name := "Test Project"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.0.0"
resolvers += "Akka Repository" at "http://repo.akka.io/releases/"
Спасибо за помощь.