Я был смущен этой проблемой в течение нескольких дней...
Мой вопрос в том, почему время обучения имеет такое огромное различие между тем, что я установил batch_size как "1" и "20" для моего генератора.
Если я установил batch_size как 1, время обучения 1 эпоха примерно 180 ~ 200 с. Если я установил batch_size 20, время обучения 1 эпоха примерно 3000 ~ 3200 с.
Однако эта ужасная разница между этими тренировочными временами кажется ненормальной..., так как это должен быть обратный результат: batch_size = 1, время тренировки → 3000 ~ 3200 сек. batch_size = 20, время тренировки → 180 ~ 200 с.
Вход в мой генератор не является файловым путем, но массивы numpy, которые уже загружены в памяти через вызов "np.load()". Поэтому я думаю, что проблема компиляции ввода-вывода не существует.
Я использую Keras-2.0.3, а мой backend - tenorflow-gpu 1.0.1
Я видел обновление этого объединенного здесь является сутью моего самоопределяемого генератора и частью моего fit_generator.
Может кто-нибудь помочь мне объяснить эту проблему? Большое вам спасибо:)