Я использую BulkWriteOperation (java driver) для хранения данных в больших кусках. Сначала кажется, что он работает нормально, но когда коллекция растет в размерах, вставки могут занимать довольно много времени.
В настоящее время для коллекции 20-миллиметровых документов объемная вставка 1000 документов может занимать около 10 секунд.
Есть ли способ сделать вставки независимыми от размера коллекции? У меня нет никаких обновлений или обновлений, это всегда новые данные, которые я вставляю.
Судя по журналу, никаких проблем с замками не возникает. Каждый документ имеет поле времени, которое индексируется, но оно линейно растет, поэтому я не вижу необходимости в том, чтобы mongo потратило время на реорганизацию индексов.
Мне бы хотелось услышать некоторые идеи по улучшению производительности
Спасибо