При использовании Scala в Spark всякий раз, когда я выгружаю результаты с помощью saveAsTextFile
, он, похоже, разбивает вывод на несколько частей. Я просто передаю ему параметр (путь).
val year = sc.textFile("apat63_99.txt").map(_.split(",")(1)).flatMap(_.split(",")).map((_,1)).reduceByKey((_+_)).map(_.swap)
year.saveAsTextFile("year")
- Соответствует ли количество выходов количеству используемых им редукторов?
- Означает ли это, что результат сжат?
- Я знаю, что я могу объединить вывод вместе с помощью bash, но есть ли возможность сохранить вывод в одном текстовом файле без разделения? Я просмотрел документы API, но в нем мало говорится об этом.