Подтвердить что ты не робот

Уникальные значения столбца факторов, содержащие NAs => "Hash table is full" error

У меня есть таблица данных с 57-м записями и 9 столбцами, одна из которых вызывает проблему, когда я пытаюсь запустить некоторую итоговую статистику. Столбец оскорбления является фактором с 3699 уровнями, и я получаю сообщение об ошибке из следующей строки кода:

    > unique(da$UPC)
    Error in unique.default(da$UPC): hash table is full

Теперь, очевидно, я бы просто использовал: levels(da$UPC), но я пытаюсь подсчитать уникальные значения, которые существуют в каждой группе, как часть нескольких j параметров /caluclations в инструкции группы данных.

Интересно, что unique(da$UPC[1:1000000]) работает как ожидалось, однако unique(da$UPC[1:10000000]) этого не делает. Учитывая, что моя таблица имеет 57-миллиметровые записи, это проблема.

Я попытался преобразовать коэффициент в символ и не работает без проблем:

    da$UPC = as.character(levels(da$UPC))[da$UPC]
    unique(da$UPC)

Выполнение этого показывает мне дополнительный "уровень", который равен NA. Так как мои данные имеют некоторые НС в столбце факторов, уникальная функция не работает. Мне интересно, это то, что разработчики знают о чем-то, что нужно исправить? Я нашел следующую статью о r-devel, которая может быть актуальной, но я не уверен, и она не упоминает data.table.

Связанная статья: уникальная (1: 3, nmax = 1) зависает R!

    sessionInfo:

    R version 3.0.1 (2013-05-16)
    Platform: x86_64-unknown-linux-gnu (64-bit)

    locale:
     [1] LC_CTYPE=C                    LC_NUMERIC=C
     [3] LC_TIME=en_US.iso88591        LC_COLLATE=C
     [5] LC_MONETARY=en_US.iso88591    LC_MESSAGES=en_US.iso88591
     [7] LC_PAPER=C                    LC_NAME=C
     [9] LC_ADDRESS=C                  LC_TELEPHONE=C
     [11] LC_MEASUREMENT=en_US.iso88591 LC_IDENTIFICATION=C

    attached base packages:
    [1] stats     graphics  grDevices utils     datasets  methods   base

    other attached packages:
    [1] plyr_1.8         data.table_1.8.8
4b9b3361

Ответ 1

этот фрагмент кода должен помещать ваши отсутствующие наблюдения в обычный уровень, с которым будет работать более удобно.

# Need additional level to place missing into first
levels(da$UPC) <- c(levels(da$UPC), '(NA)')
da$UPC[is.na(da$UPC)] <- '(NA)'

Похоже, вы в конечном счете пытаетесь сбросить нечастые уровни, чтобы помочь в каком-то анализе. Я написал функцию factorize(), которая, я считаю, может вам помочь. Он ведёт нечастые уровни в категорию "Другие".

Здесь ссылка, пожалуйста, дайте мне знать, если это поможет.

[факторизуются()] [1] https://github.com/greenpat/R-Convenience/blob/master/factorize.R

(воспроизведено ниже)

# This function takes a vector x and returns a factor representation of the same vector.
# The key advantage of factorize is that you can assign levels for infrequent categories,
# as well as empty and NA values. This makes it much easier to perform
# multidimensional/thematic analysis on your largest population subsets.
factorize <- function(
    x,  # vector to be transformed
    min_freq = .01,  # all levels < this % of records will be bucketed
    min_n = 1,  # all levels < this # of records will be bucketed
    NA_level = '(missing)',  # level created for NA values
    blank_level = '(blank)',  # level created for "" values
    infrequent_level = 'Other',  # level created for bucketing rare values
    infrequent_can_include_blank_and_NA = F,  # default NA and blank are not bucketed
    order = T,  # default to ordered
    reverse_order = F  # default to increasing order
) {
    if (class(x) != 'factor'){
        x <- as.factor(x)
    }
    # suspect this is faster than reassigning new factor object
    levels(x) <- c(levels(x), NA_level, infrequent_level, blank_level)

    # Swap out the NA and blank categories
    x[is.na(x)] <- NA_level
    x[x == ''] <- blank_level

    # Going to use this table to reorder
    f_tb <- table(x, useNA = 'always')

    # Which levels will be bucketed?
    infreq_set <- c(
        names(f_tb[f_tb < min_n]),
        names(f_tb[(f_tb/sum(f_tb)) < min_freq])
    )

    # If NA and/or blank were infrequent levels above, this prevents bucketing
    if(!infrequent_can_include_blank_and_NA){
        infreq_set <- infreq_set[!infreq_set %in% c(NA_level, blank_level)]
    }

    # Relabel all the infrequent choices
    x[x %in% infreq_set] <- infrequent_level

    # Return the reordered factor
    reorder(droplevels(x), rep(1-(2*reverse_order),length(x)), FUN = sum, order = order)
}

Ответ 2

Не могли бы вы использовать dplyr и получить другой результат? Например, я установил некоторые (маленькие) поддельные данные, а затем определит различные уровни alpha. Я не знаю, насколько это хорошо.

test <- data.frame(alpha=sample(c('a', 'b', 'c'), 100000, replace=TRUE), 
                  num=runif(100000))

uniqueAlpha <- distinct(select(test, alpha))

Ответ 3

Возможно, я пропущу точку, но если это объект data.table, вы можете использовать это, чтобы суммировать подсчеты:

da[,.N, by=UPC]

Если это работает, уникальными значениями будут:

unique <- da[,.N, by=UPC]$UPC
length(unique)

Вы также можете группировать несколько столбцов:

da[,.N,by=.(A,B,C,..)]

Ответ 4

В качестве альтернативы вы также можете использовать дублируемую функцию.

my_data <- data.frame(a=c(1,1,2,2,3,3),
                b=c("a","a","a","b","b","c")) 

New_data <- my_data[!duplicated(my_data$a),]

Дублированная функция возвращает логический вектор на основе дублированных значений, используя отрицание, мы получили желаемые результаты.

Ответ 5

Не уверен, что это решит проблему, но вы можете проверить пакет Hadley Wickham forcats:

library(forcats)
fct_count(da$UPC)