У меня довольно большой фрейм данных в R, который я хотел бы экспортировать в SPSS.
Этот файл вызвал у меня частые головные боли, которые пытались импортировать его в R в первую очередь, однако я успешно использовал read.fwf()
с помощью опций comment.char="%"
(символ, не отображающийся в файле) и fill= TRUE
(это был файл ASCII с фиксированной шириной с несколькими строками, в которых отсутствуют все переменные, вызывая сообщения об ошибках).
В любом случае, мой кадр данных в настоящее время состоит из 3,9 млн наблюдений и 48 переменных (всех символов). Я могу записать его в файл довольно быстро, разделив его на 4 x 1 миллионные наборы с df2 <- df[1:1000000,]
, за которыми следуют write.table(df2)
и т.д., Но не может записать весь файл за один проход без блокировки компьютера и необходимости жесткого reset, чтобы вернуться.
После прослушивания анекдотических историй о том, как R не подходит для больших наборов данных в течение многих лет, я впервые столкнулся с проблемой такого рода. Интересно, существуют ли другие подходы (низкоуровневый "сброс" файла непосредственно на диск?) Или есть ли какой-то неизвестный мне пакет, который может эффективно обрабатывать большие файлы этого типа?