Подтвердить что ты не робот

Почему pandas.to_datetime slow для нестандартного формата времени, такого как '2014/12/31'

У меня есть. CSV файл в таком формате

timestmp, p
2014/12/31 00:31:01:9200, 0.7
2014/12/31 00:31:12:1700, 1.9
...

а при чтении через pd.read_csv и преобразовании времени str в datetime с использованием pd.to_datetime производительность резко падает. Вот минимальный пример.

import re
import pandas as pd

d = '2014-12-12 01:02:03.0030'
c = re.sub('-', '/', d)

%timeit pd.to_datetime(d)
%timeit pd.to_datetime(c)
%timeit pd.to_datetime(c, format="%Y/%m/%d %H:%M:%S.%f")

а результаты:

10000 loops, best of 3: 62.4 µs per loop
10000 loops, best of 3: 181 µs per loop
10000 loops, best of 3: 82.9 µs per loop

Итак, как я мог улучшить производительность pd.to_datetime при чтении даты из файла csv?

4b9b3361

Ответ 1

Это связано с тем, что pandas возвращается к dateutil.parser.parse для синтаксического анализа строк, если у него есть формат по умолчанию или когда нет строки format (это намного более гибко, но также медленнее).

Как вы показали выше, вы можете повысить производительность, поставив строку format на to_datetime. Или другой вариант - использовать infer_datetime_format=True


По-видимому, infer_datetime_format не может вывести, когда есть микросекунды. С примером без них вы можете увидеть большое ускорение:

In [28]: d = '2014-12-24 01:02:03'

In [29]: c = re.sub('-', '/', d)

In [30]: s_c = pd.Series([c]*10000)

In [31]: %timeit pd.to_datetime(s_c)
1 loops, best of 3: 1.14 s per loop

In [32]: %timeit pd.to_datetime(s_c, infer_datetime_format=True)
10 loops, best of 3: 105 ms per loop

In [33]: %timeit pd.to_datetime(s_c, format="%Y/%m/%d %H:%M:%S")
10 loops, best of 3: 99.5 ms per loop

Ответ 2

Часто я не могу заранее указать стандартный формат даты, потому что я просто не знаю, как каждый клиент захочет отправить его. Даты непредсказуемо отформатированы и часто отсутствуют.

В этих случаях вместо использования pd.to_datetime я нашел более эффективным написать свою собственную оболочку в dateutil.parser.parse:

import pandas as pd
from dateutil.parser import parse
import numpy as np

def parseDateStr(s):
    if s != '':
        try:
            return np.datetime64(parse(s))
        except ValueError:
            return np.datetime64('NaT')
    else: return np.datetime64('NaT')             

# Example data:
someSeries=pd.Series(  ['NotADate','','1-APR-16']*10000 )

# Compare times:
%timeit pd.to_datetime(someSeries, errors='coerce') #1 loop, best of 3: 1.78 s per loop
%timeit someSeries.apply(parseDateStr)              #1 loop, best of 3: 904 ms per loop

# The approaches return identical results:
someSeries.apply(parseDateStr).equals(pd.to_datetime(someSeries, errors='coerce')) # True

В этом случае время выполнения сокращается наполовину, но YMMV.

Ответ 3

На этот вопрос уже достаточно ответа, но я хотел добавить в результаты некоторых тестов, которые я выполнял, чтобы оптимизировать мой собственный код.

Я получал этот формат из API: "Ср Фев 08 17:58:56 +0000 2017".

Используя стандартное pd.to_datetime(SERIES) с неявным преобразованием, pd.to_datetime(SERIES) около часа, чтобы обработать примерно 20 миллионов строк (в зависимости от того, сколько у меня было свободной памяти).

Тем не менее, я протестировал три разных конверсии:

# explicit conversion of essential information only -- parse dt str: concat
def format_datetime_1(dt_series):

    def get_split_date(strdt):
        split_date = strdt.split()
        str_date = split_date[1] + ' ' + split_date[2] + ' ' + split_date[5] + ' ' + split_date[3]
        return str_date

    dt_series = pd.to_datetime(dt_series.apply(lambda x: get_split_date(x)), format = '%b %d %Y %H:%M:%S')

    return dt_series

# explicit conversion of what datetime considers "essential date representation" -- parse dt str: del then join
def format_datetime_2(dt_series):

    def get_split_date(strdt):
        split_date = strdt.split()
        del split_date[4]
        str_date = ' '.join(str(s) for s in split_date)
        return str_date

    dt_series = pd.to_datetime(dt_series.apply(lambda x: get_split_date(x)), format = '%c')

    return dt_series

# explicit conversion of what datetime considers "essential date representation" -- parse dt str: concat
def format_datetime_3(dt_series):

    def get_split_date(strdt):
        split_date = strdt.split()
        str_date = split_date[0] + ' ' + split_date[1] + ' ' + split_date[2] + ' ' + split_date[3] + ' ' + split_date[5]
        return str_date

    dt_series = pd.to_datetime(dt_series.apply(lambda x: get_split_date(x)), format = '%c')

    return dt_series

# implicit conversion
def format_datetime_baseline(dt_series):

    return pd.to_datetime(dt_series)

Это были результаты:

# sample of 250k rows
dt_series_sample = df['created_at'][:250000]

%timeit format_datetime_1(dt_series_sample)        # best of 3: 1.56 s per loop
%timeit format_datetime_2(dt_series_sample)        # best of 3: 2.09 s per loop
%timeit format_datetime_3(dt_series_sample)        # best of 3: 1.72 s per loop
%timeit format_datetime_baseline(dt_series_sample) # best of 3: 1min 9s per loop

Первый тест приводит к впечатляющему сокращению времени выполнения на 97,7%!

Несколько удивительно, похоже, что даже "подходящее представление" занимает больше времени, вероятно, потому что оно неявное.

Вывод: чем яснее вы будете, тем быстрее он будет работать.