У меня есть файл JSON, содержащий довольно много тестовых данных, которые я хочу проанализировать и протестировать через алгоритм, который я тестирую. Это около 30 МБ, со списком из 60 000 элементов. Сначала я попробовал простой парсер в scala.util.parsing.json, например:
import scala.util.parsing.json.JSON
val data = JSON.parseFull(Source.fromFile(path) mkString)
Где путь - это просто строка, содержащая путь к большому файлу JSON. Это проглотило около 45 минут, а затем бросило это:
java.lang.OutOfMemoryError: GC overhead limit exceeded
Кто-то тогда указал мне, что никто не использует эту библиотеку, и я должен использовать парсер Lift JSON. Поэтому я попробовал это в своем Scala REPL:
scala> import scala.io.Source
import scala.io.Source
scala> val s = Source.fromFile("path/to/big.json")
s: scala.io.BufferedSource = non-empty iterator
scala> val data = parse(s mkString)
java.lang.OutOfMemoryError: GC overhead limit exceeded
На этот раз это заняло около 3 минут, но та же ошибка.
Итак, я мог бы разбить файл на более мелкие, перебрать каталог JSON файлов и объединить мои данные вместе, но я бы скорее избегал его, если это было возможно. Есть ли у кого-нибудь рекомендации?
За дополнительной информацией - я работал с этим же набором данных за последние несколько недель в Clojure (для визуализации с помощью Incanter) без проблем. Следующее работает отлично:
user=> (use 'clojure.data.json)
nil
user=> (use 'clojure.java.io)
nil
user=> (time (def data (read-json (reader "path/to/big.json"))))
"Elapsed time: 19401.629685 msecs"
#'user/data