У меня есть файл Hprof на 6.5 ГБ, который был сбрасыван 64-разрядной JVM с помощью опции -XX:-HeapDumpOnOutOfMemoryError
. У меня он сидит на 16-битной 64-битной машине, и я пытаюсь вставить его в jhat, но у него все еще не хватает памяти. Я попытался передать в jvm args минимальные настройки, но он отклоняет любой минимум и, кажется, исчерпывает память, прежде чем достигнуть максимума.
Кажется глупым, что из-за нехватки памяти jvm выгружает кучу настолько большой, что ее нельзя загрузить на коробке с вдвое большим количеством бара. Есть ли какие-либо способы для этого, или, возможно, амортизировать анализ?