Когда я тренируюсь только с помощью glm
, все работает, и я даже не приближаюсь к изнурительной памяти. Но когда я запускаю train(..., method='glm')
, у меня заканчивается память.
Это потому, что train
хранит много данных для каждой итерации перекрестной проверки (или что-то вроде процедуры trControl)? Я смотрю на trainControl
, и я не могу найти, как предотвратить это... любые подсказки? Меня интересует только сводка производительности и, возможно, предсказанные ответы.
(Я знаю, что это не связано с хранением данных с каждой итерации поиска сетки параметров, потому что нет сетки для glm, я считаю.)