Pull to refresh

Comments 24

В замедлении веба не в последнюю очередь виноваты хостинги.
Какие проблемы вижу я:

1) Процессоры в погоне за ядрами становятся все медленнее.
Причем вам могут обещать какие-то высокие турбо-частоты, но в реальности на не пустующем сервере их практически никогда не будет. А будет скорей что-то около 2 Ггц.

2) SSD в погоне за ценой и объемом становятся все хуже.
Опять же, вам будут обещать супер-NVMe, в 10x быстрее, и т.п. маркетинговую чушь.
А по факту внутри TLC/QLC флэш, который без кэшей уверенно стремится к скоростям HDD.
Снова, речь про работающий сервер с кучей пользователей, а не однопользовательские бенчмарки на пустом диске.

3) Повсеместное увлечение vps. Когда берут 1-ядерную самую дешевую виртуалку и она этим единственным ядрышком (не забываем за п.1) должна и операционку содержать, и вэб-сервер и базы, и кто знает что еще понаустанавливают на нее.

Если мне при первом заходе разрабы пихают 4-5Мб ресурсов, то это не в хостинге проблема.

Я и не говорю, что только только в хостинге проблема. Одна из.
Если эти самые ресурсы в виде статики и минимального количества файлов (запросов) то еще ладно. Но речь про хостинг как о причине еще дополнительного ожидания пока сервер там выполнит кучу скриптов и запросов к базе. Да, это вина и разработчика сайта тоже, но всеж будь процессор раза в 2 шустрей (4-5ггц это ведь ничего запредельного в наши дни) и время ожидания ответа могло б быть раза в 2 меньше. Но нет, хостерам же нужно продавать ядра… Также и с дисками — лишь бы объем по-больше.

В замедлении веба не в последнюю очередь виноваты хостинги.
Но он не замедляется.

Короткая версия статьи: Nielsen Norman сопоставили на одном графике скорость мобильного Интернета и время загрузки мобильных страниц по данным HTTP Archive, но не учли, что HTTP Archive для мобильных страниц эмулирует скорость 3G (то есть по факту для тестов HTTP Archive никакого LTE и повышения пропускной способности словно не было).

На самом деле мобильный веб стал быстрее (что аргументирует уже оставшаяся часть статьи).

Вопрос даже не в том, становится ли медленнее, а почему не стал сильно быстрее за 20 лет.
Требования к качеству канала и рендерящим мощностям возрасли очень сильно, особенно с переходом на клиентский рендер.
То, от чего радостно убегали(толстые клиенты), вернулось.

Потому что тем, кто оплачивает создание и хостинг Веб-ресурсов, главное не скорость, а стоимость разработки и поддержки. И она действительно снизилась — за счёт перекладывания издержек на потребителей.
Вопрос даже не в том, становится ли медленнее, а почему не стал сильно быстрее за 20 лет.

А есть хоть одна причина, по которой должен был?

Почему-то все любят мерять скорость загрузки главной страницы (с картинками, стилями, резолвингом DNS, установлением SSL и прочим). Но при этом забывают, что ресурсы кешируются. Т.е. первая загрузка долгая, но дальше всё будет хорошо и быстро. А вот это уже никому не интересно.

Дальше вовсе не обязательно будет хорошо и быстро, если куча всего всё равно грузится асинхронно, а ещё тормозной JavaScript где надо и где не надо. Вместе с rich media рекламой в десяти экземплярах на страницу.

«Хорошо» в пределах жизни кеша. А это даже не месяцы.
А если человек куда-то заходит редко? Или однократно?
счётчик на ю матрице иногда к четеоёхзначным показателям приближается, список источников за полсотни уходит.
В таком варианте — да. Но, многие скрипты и картинки грузятся асинхронно, и не очень влияют на впечатление о сайте.
Просто как абстрактный пример. У нас есть интернет магазин, у которого фактически 2 страницы для пользователя: список товаров и карточка товара. После первого захода может приехать куча скриптов и стилей. Но человек ходит по сайту, смотрит разные товары и по факту он получает только информацию о товаре и его фотографии. Т.е. в случае условного SPA — у него только данные придут, у него всё уже загружено. Вот в данном случае, насколько важно время первой и время последующих?
А я видел, как люди упарывались именно ради первой загрузки. Сайт открывался быстро, но потом всё дёргалось и моргало, т.к. люди обманывали тесты и роботов, чтобы сайт в выдаче был красивый, но на людей было наплевать.
А с другой стороны, если канал не гигабитный с нулевой задержкой, секунд 10-15 сидишь ждёшь, пока прекратится дёргание из-за резиново-адаптивной вёрстки с отложенной асинхронной загрузкой.
Ладно, если это только на заглавной, но вполне и по всему дереву сайта.
Страницы того же Хабра на смартфоне открываются отвратительно медленно что в первый раз, что в последующие. Вообще, современный Веб — это почти сплошная боль. Мало того, что всё очень жирное и тормозное, с навязчивой манерой подгружать контент с десятков сторонних узлов, так ещё и дизайн большинства сайтов состоит из одних антипаттернов вроде бесконечной прокрутки.
Берем новостной портал всё-обо-всём. Главная страница меняется на 80% в течение 2 часов, никакой кеш ресурсов не поможет, я каждый раз в этом плане уник и буду получать полный набор ресурсов, за исключением нескольких js/css.
CSS не меняются, кастомные фонты не меняются, скрипты — не меняются. Меняется только текст и картинки.
А я что написал?
От картинок и текстов основной трафик в этом случае.
Если юзер впервые приходит на сайт, ему всё-равно есть там кеш или нет, он качает вагон контента и ждёт.
Мы как бы современный веб обсуждаем, где сплошные скрипты. :) Анна Каренина без сжатия весит 1Мб, думаете на новостных порталах текстов больше за 2 часа? А картинки — не блокируют загрузку страницы, да и превьюшки там в основном.

Много цифр, заключения не понял…
Я "в сети" примерно с 2010 года и по лично моим ощещниям веб становился лучше/быстрее понемногу. Но вот веселье, если вы сейчас запустите сайт который был создан силами инструментов из того же 2010, вы офигеете буквально, да у них будут топорные анимация и не очень привлекателльная обёртка, но их загрузка и скорость работы как раз в 4 выше чем сейчас.
Моё чисто субъективное, будет ли критика?)

Кстати, на счет графика. Три года назад тренд на уменьшение пользования ПК пропал — теперь доля стабильная. Непонятно, почему на графике автора этого не видно:

Любопытно, что мы всё так же читаем текст, смотрим картинки и нажимаем кнопочки в браузере, но при этом сам браузер стал главным потребителем вычислительной мощности устройства, а страницы субъективно не стали грузиться быстрее, чем на заре широкополосного Интернета. Можно ли считать прогрессом постоянное усложнение обработки информации в угоду облегчения процесса разработки с практически не прогрессирующим результатом? Зато любой краб теперь навороченную страничку сделать может, а 5 крабов — это уже фирма.
Любопытно, что мы всё так же читаем текст
Увы, не так же. Современный пользователь читать не хочет, он хочет смотреть и слушать. Поэтому текстовую информацию в Интернете искать всё сложнее — кругом одно видео да подкасты.
Похоже, что следующим этапом развития Интернета будет «гипервидео», которое придёт на замену гипертексту. Что-то вроде «если хотите положить товар в корзину, перейдите на метку 2 мин 30 сек данного ролика», «произнесите голосом количество товаров, которое хотите купить. Если голосовой ввод не работает, поставьте на паузу видео, когда мы произнесём вслух нужное вам число».
Ага, и ещё сайты/страницы с голым текстом тормозят и жрут ресурсы так, будто видео и прочей мультимедией набиты под завязку.
На работе старый комп. Раньше мог по 50 вкладок открывать. Сейчас 3 вкладки хабра подвешивают браузер. Памяти жрет немерено, а ее всего 2 гига(. Вырубил javascript и все полетело, память жрать перестало и снова по 50 вкладок открывается. И внешне ничего толком не изменилось!
В своё время я разрабатывал гипотезу субъективной объективности. То есть, если чел говорит
что Бога нет, то его и нет в жизни этого человека. Иными словами: если я говорю, что Интернет замедлился с годами, то он и замедлился. Для меня, конечно, не спешите кидаться козьим навозом.
Sign up to leave a comment.