Я собираюсь провести некоторые анализы журналов в R (если только я не могу сделать это в R), и я понимаю, что мои данные должны соответствовать ОЗУ (если я не использую какое-то исправление, подобное интерфейсу keyval store, может быть?). Поэтому мне интересно, как рассказать заранее, сколько комнат мои данные будут занимать в ОЗУ, и будет ли у меня достаточно. Я знаю, сколько оперативной памяти у меня (не огромная сумма - 3 ГБ в XP), и я знаю, сколько строк и столбцов мой лог файл будет в конечном итоге, и какие типы данных должны содержать записи col (которые, по-видимому, мне нужно проверить как он читает).
Как мне собрать это вместе в решение go/nogo для проведения анализа в R? (Предположительно, R должен иметь возможность оперативной работы с ОЗУ, а также для хранения данных!). Мой немедленный требуемый вывод представляет собой кучу простых статистических данных, частот, непредвиденных ситуаций и т.д., И поэтому я, вероятно, мог бы написать какую-то парсер/табулятор, который даст мне результат, который мне нужен в краткосрочной перспективе, но я также хочу поиграть с множеством различных подходов к этим данным в качестве следующего шага, поэтому я рассматриваю возможность использования R.
Я видел много полезных советов о больших наборах данных в R здесь, которые я прочитал и перечитаю, но сейчас я хотел бы лучше понять, как выяснить, должен ли я (а) идти туда вообще ( б) пойдите туда, но ожидайте, что вам придется сделать некоторые дополнительные вещи, чтобы сделать его управляемым, или (c) убежать до того, как он станет слишком поздно, и сделать что-то на другом языке/среде (предложения приветствуются...!). спасибо!