Возможный дубликат:
Почему существует UTF-32, тогда как для кодирования каждого символа требуется только 21 бит?
Максимальная кодовая точка Unicode равна 0x10FFFF в UTF-32. UTF-32 имеет 21 информационный бит и 11 лишних пустых бит. Итак, почему нет кодировки UTF-24 (т.е. UTF-32 с удаленным старшим байтом) для хранения каждой кодовой точки в 3 байта, а не 4?