Я профилировал некоторый унаследованный код, который унаследовал с cProfile. Существовала куча изменений, которые я уже сделал, которые помогли (например, с помощью простых слотных расширений C!).
В основном этот script экспортирует данные из одной системы в файл фиксированной ширины ASCII. Каждая строка - это запись, и она имеет много значений. Каждая строка имеет 7158 символов и содержит тонну пробелов. Общее количество записей составляет 1,5 миллиона записей. Каждая строка генерируется по одному за раз и занимает некоторое время (5-10 строк в секунду).
По мере создания каждой строки она записывается на диск как можно проще. Профилирование показывает, что около 19-20% от общего времени тратится на file.write()
. Для тестового случая 1500 строк, которые 20 секунд. Я бы хотел уменьшить это число.
Теперь кажется, что следующая победа будет уменьшать количество времени, затрачиваемого на запись на диск. Я хотел бы уменьшить его, если это возможно. Я могу хранить кэш записей в памяти, но я не могу дождаться конца и сбросить все это сразу.
fd = open(data_file, 'w')
for c, (recordid, values) in enumerate(generatevalues()):
row = prep_row(recordid, values)
fd.write(row)
if c % 117 == 0:
if limit > 0 and c >= limit:
break
sys.stdout.write('\r%s @ %s' % (str(c + 1).rjust(7), datetime.now()))
sys.stdout.flush()
Моя первая мысль заключалась в том, чтобы хранить кеш записей в списке и записывать их партиями. Будет ли это быстрее? Что-то вроде:
rows = []
for c, (recordid, values) in enumerate(generatevalues()):
rows.append(prep_row(recordid, values))
if c % 117 == 0:
fd.write('\n'.join(rows))
rows = []
Моей второй мыслью было бы использовать другой поток, но это заставляет меня хотеть умереть внутри.