Обычно мы сталкиваемся с проблемами OutOfMemoryError из-за проблемы с конфигурацией размера кучи или констанг.
Но все JVM-память не является перменом или кучей. Насколько я понимаю, он также может быть связан с Threads/Stacks, собственным кодом JVM...
Но используя pmap, я вижу, что процесс распределяется с помощью 9.3G, что составляет 3,3 Гбайт памяти памяти.
Интересно, каковы возможности мониторинга и настройки этого дополнительного потребления памяти без кучи.
Я не использую прямой доступ к памяти без кучи (MaxDirectMemorySize имеет значение по умолчанию 64 м)
Context: Load testing
Application: Solr/Lucene server
OS: Ubuntu
Thread count: 700
Virtualization: vSphere (run by us, no external hosting)
JVM
java version "1.7.0_09"
Java(TM) SE Runtime Environment (build 1.7.0_09-b05)
Java HotSpot(TM) 64-Bit Server VM (build 23.5-b02, mixed mode)
Tunning
-Xms=6g
-Xms=6g
-XX:MaxPermSize=128m
-XX:-UseGCOverheadLimit
-XX:+UseConcMarkSweepGC
-XX:+UseParNewGC
-XX:+CMSClassUnloadingEnabled
-XX:+OptimizeStringConcat
-XX:+UseCompressedStrings
-XX:+UseStringCache
Карты памяти:
https://gist.github.com/slorber/5629214
vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
1 0 1743 381 4 1150 1 1 60 92 2 0 1 0 99 0
свободный
total used free shared buffers cached
Mem: 7986 7605 381 0 4 1150
-/+ buffers/cache: 6449 1536
Swap: 4091 1743 2348
Top
top - 11:15:49 up 42 days, 1:34, 2 users, load average: 1.44, 2.11, 2.46
Tasks: 104 total, 1 running, 103 sleeping, 0 stopped, 0 zombie
Cpu(s): 0.5%us, 0.2%sy, 0.0%ni, 98.9%id, 0.4%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 8178412k total, 7773356k used, 405056k free, 4200k buffers
Swap: 4190204k total, 1796368k used, 2393836k free, 1179380k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
17833 jmxtrans 20 0 2458m 145m 2488 S 1 1.8 206:56.06 java
1237 logstash 20 0 2503m 142m 2468 S 1 1.8 354:23.19 java
11348 tomcat 20 0 9184m 5.6g 2808 S 1 71.3 642:25.41 java
1 root 20 0 24324 1188 656 S 0 0.0 0:01.52 init
2 root 20 0 0 0 0 S 0 0.0 0:00.26 kthreadd
...
df → tmpfs
Filesystem 1K-blocks Used Available Use% Mounted on
tmpfs 1635684 272 1635412 1% /run
Основная проблема:
- На сервере имеется 8 ГБ физической памяти
- Куча Solr принимает только 6G
- Существует 1,5 ГБ свопа.
- Swappiness = 0
- Потребление кучи кажется соответствующим образом настроенным.
- Работа на сервере: только Solr и некоторые материалы мониторинга
- У нас есть правильное среднее время отклика
- Мы иногда имеем аномальные длинные паузы, до 20 секунд.
Я предполагаю, что паузы могут быть полным GC на сменной куче?
Почему так много свопов?
Я даже не знаю, является ли это JVM, что делает обмен сервером, или если это что-то скрытое, которое я не вижу. Возможно, кеш страниц ОС? Но не уверен, почему ОС создаст записи кэша страницы, если это создает обмен.
Я рассматриваю возможность тестирования трюка mlockall
, используемого в некоторых популярных хранилищах на базе Java/NoSQL, таких как ElasticSearch, Voldemort или Cassandra: check Сделать JVM/Solr не swap, используя mlockall
Edit:
Здесь вы можете увидеть максимальную кучу, используемую кучу (синий), используемый swap (красный). Кажется, что это связано.
Я вижу с Graphite, что существует много ParNew GC, происходящих регулярно. И есть несколько CMS GC, которые соответствуют негативному уменьшению изображения кучи.
Паузы, похоже, не коррелируют с уменьшением кучи, но регулярно распределяются между 10:00 и 11:30, так что это может быть связано с ParNew GC, я думаю.
Во время теста нагрузки я вижу активность диска, а также некоторую активность обмена IO, которая действительно спокойна, когда тест заканчивается.