Из того, что я нашел до сих пор, ясно, что программы, скомпилированные для 64-битной архитектуры, используют в два раза больше ОЗУ для указателей в качестве их 32-битных альтернатив - https://superuser.com/info/56540/32-bit-vs-64-bit-systems.
Означает ли это, что код, скомпилированный для 64-битного использования, в среднем в два раза больше RAM, чем 32-разрядная версия?
Я как-то сомневаюсь в этом, но мне интересно, что такое настоящие накладные расходы. Я полагаю, что небольшие типы, такие как short
, byte
и char
, имеют одинаковый размер в 64-битной архитектуре? Однако я не уверен в byte
. Учитывая, что многие приложения работают с большими строками (например, с веб-браузерами и т.д.), Которые состоят в основном из массивов char
в большинстве реализаций, накладные расходы могут быть не такими большими.
Таким образом, даже если числовые типы, такие как int
и long
, больше на 64 бит, повлияет ли это на использование ОЗУ или нет?