У меня есть Python script, который импортирует большой CSV файл и затем подсчитывает количество вхождений каждого слова в файл, а затем экспортирует counts в другой CSV файл.
Но то, что происходит, состоит в том, что после того, как эта счетная часть будет завершена, и начнется экспорт, в терминах будет указано Killed
.
Я не думаю, что это проблема с памятью (если бы я предположил, что получаю ошибку памяти, а не Killed
).
Может быть, этот процесс слишком длительный? Если да, существует ли способ продлить период тайм-аута, чтобы я мог избежать этого?
Вот код:
csv.field_size_limit(sys.maxsize)
counter={}
with open("/home/alex/Documents/version2/cooccur_list.csv",'rb') as file_name:
reader=csv.reader(file_name)
for row in reader:
if len(row)>1:
pair=row[0]+' '+row[1]
if pair in counter:
counter[pair]+=1
else:
counter[pair]=1
print 'finished counting'
writer = csv.writer(open('/home/alex/Documents/version2/dict.csv', 'wb'))
for key, value in counter.items():
writer.writerow([key, value])
И Killed
происходит после печати finished counting
, а полное сообщение:
killed (program exited with code: 137)