Подтвердить что ты не робот

Что касается использования памяти с использованием упругой памяти

В настоящее время я использую elasticsearch 0.9.19. Аппарат, который я использую, имеет около 300 ГБ дискового пространства, а оперативная память - около 23 ГБ. Я выделил около 10 ГБ бара для поиска эластичности. Мои операции интенсивно пишут. Они вокруг 1000docs/s. Я выполняю только упругий поиск на машине и никакой другой процесс. Размер документа невелик. Они небольшие только с не более чем 10 полями. Эластичный поиск выполняется только на одной машине с 1 черепом и 0 репликами.

Используемая память начинает очень быстро увеличиваться при отправке 1000 docs/s. Хотя я выделил 10 ГБ оперативной памяти только для эластичного поиска, но до сих пор почти 21 ГБ RAM потребляется, и в конечном итоге процесс упругого поиска получается из кучи. Позже мне нужно очистить кэш ОС, чтобы освободить всю память. Даже когда я прекращаю отправку упругого поиска, 1000docs/s, тогда и память автоматически не очищается.

Итак, например, если я выполняю поиск эластичности с помощью операций 1000doc/s write, то обнаружил, что он быстро использовал 18 ГБ-памяти, а позже, когда я сократил свои операции записи до 10 документов/с, используемая память все еще показывает около 18 ГБ. Который, я думаю, должен снизиться с уменьшением количества операций записи. Я использую Bulk API для выполнения моих операций записи с размером до 100 документов на запрос. Данные поступают от 4 машин, когда операции записи составляют около 1000docs/sec

Это цифры, которые я получаю после того, как делаю топ

Mem: 24731664k всего, 18252700k, 6478964k бесплатно, 322492k буферы

своп: 4194296k всего, 0k использовано, 4194296k бесплатно, 8749780k кэшировано

PID USER PR NI VIRT RES SHR S% CPU% MEM TIME + COMMAND

1004 эластика 20 0 10,7 г 8,3 г 10 м S 1 35,3 806: 28,69 java

Скажите, есть ли у кого-нибудь идеи, что может быть причиной этого. Из-за этой проблемы я должен остановить свое приложение. Я думаю, что мне не хватает какой-либо конфигурации. Я уже прочитал всю документацию, связанную с кешем, для поиска эластичности здесь http://www.elasticsearch.org/guide/reference/index-modules/cache.html

Я также попробовал очистить кеш с использованием Clear cache API, а также попытался flush api. Но не было никаких улучшений.

Спасибо заранее.

4b9b3361

Ответ 1

Подводя итог ответу на поток списка рассылки: проблема заключалась в том, что клиент Ruby не смог активировать свои вставки, а использование памяти Lucene растет с увеличением большого количества документов. Я думаю, что также может быть проблема с частотой фиксации: важно время от времени фиксировать, чтобы очистить вновь добавленные документы на диск. У ОП все еще проблема? Если нет, можете ли вы опубликовать решение?