Подтвердить что ты не робот

Быстрее ли загружаются веб-страницы?

Я являюсь поклонником веб-страниц действительных и всегда трачу время на новые сайты с помощью W3C validator.

Когда вы пытаетесь объяснить, почему компании должны проверять веб-страницы, я быстро подумал о доступность и будущей проверки веб-сайта на более примитивных устройствах, таких как телефоны, холодильники, часы, следующее-большое и т.д.

Однако я тогда задавался вопросом, есть ли вычислительные накладные расходы, связанные с рендерингом веб-страниц, которые не проверяются?

Проведено ли какое-либо исследование в этой области? и некоторые браузеры обрабатывают недопустимый контент лучше других?

4b9b3361

Ответ 1

Вероятно, для неверной страницы потребуется больше времени для визуализации, поскольку браузеру потребуется реализовать некоторое восстановление (дедуктивная работа, чтобы найти, где находится следующий допустимый контент, и как браузер может продолжать его показывать), и это может привести к накладным расходам.

Фактическая разница может быть рассказана только после тщательных измерений и (если возможно) анализа исходного кода браузера.

Ответ 2

Я думаю, что ваш сильный аргумент будет в обслуживании. Я разработал интрасеть для последней крупной компании, в которой я работал. Я создал шаблоны страниц, которые имеют действительную разметку и использовали условные комментарии для целевых таблиц стилей для разных версий IE. Сайт был запущен 2 года назад; он выглядит одинаково в Firefox 2 и 3, Safari 2 и 3 и IE 6, 7 и 8! Никаких изменений разметки или стиля не было. Это означает, что, когда организация, наконец, обновится до IE 7, команде разработчиков веб-сайтов не придется ничего делать. Большая победа в снижении затрат на обслуживание.

Ответ 3

Я подозреваю, что стоимость любого восстановления системы или другая обработка недействительного контента будет незначительно снижаться за счет сетевых задержек и других затрат.

Ответ 4

Затем я задавался вопросом, есть ли вычислительные накладные расходы, связанные с рендерингом веб-страниц, которые не проверяются?

Конечно, но это довольно мелочно. Частота анализа в целом не будет иметь ощутимого влияния по сравнению с гораздо большими задержками, вызванными временем загрузки сети.

Если это может повлиять на время загрузки, это когда вы неправильно закрываете комментарий. Fixups для проблем с комментариями можно отложить до конца страницы, поэтому прогрессивный рендеринг не произойдет, и ничего не будет отображаться до тех пор, пока не будет загружена вся страница.

Ответ 5

Я так не думаю. Я думаю, что это примерно то же самое, может быть, даже больше для правильных страниц (например, & в URL-адресах). Тем более, что некоторые браузеры (ах, IE) практически разработаны для недопустимых страниц. Не сказать, что мне нравится недействительный HTML.

Ответ 6

Я просто размышляю здесь, потому что у меня нет справочных или жестких данных, чтобы поддержать это, но я думаю, что режим рендеринга, который выбирает браузер, может иметь некоторое влияние. Большинство браузеров имеют два или три режима разлома, один для стандартных страниц (обычно это срабатывает, когда вы обслуживаете браузер действительным html-документом, но не всегда) и режим quirks, который просто пытается сделать все, что вы бросаете на него. Я могу себе представить, что производительность стандартного режима намного лучше, чем режим quirks, но опять же: просто размышляя здесь. Если кто-нибудь может поддержать это с доказательствами или хорошей ссылкой, не стесняйтесь комментировать или публиковать лучший ответ!