Комментарии
Мегабайты яваскриптов для отображения 140 символов, что же ещё.
Например, большую веб-страницу, которую строит скрипт на shared хостинге.
Во-первых, если бэк не успевает отработать за 500 мс, программист делает что-то сильно не так. Во-вторых, даже с не очень хорошим пингом до сервера за 5 секунд можно загрузить 640 килобайт. Это два тома «войны и мира» в текстовом формате!
Ну вот мой пример (не 5 секунд конечно, но тем не менее):


Google Pagespeed говорит я должен удалить скрипты гугла и яндекса.
И как это починить? Тут всего лишь аналитика, гугл рекапча и скрипт социальных кнопок для шаринга от яндекса.
Удаляйте. Аналитика тормозит сайты, выжирает батареи и трафик. Аналитика зло, которое должно быть искоренено. Как и шаринг соцсетей.

А что если владелец сайта ну ооочень хочет какой-нибудь вебвизор и отговорить его не получается?

Аналитика позволяет оправдать и объяснить существование сайта.

Положим, вызывает вас руководитель и просит доказать, что надо и дальше тратить ресурсы учреждения на этот сайт. При этом руководитель объясняет, что сайт этот никому не нужен, никакой пользы не приносит и является нецелевым использованием средств учреждения.

Как ему ответить, не имея статистики? Как доказать, что сайт соответствует уставным целям?

Распарсить access.log для сбора статистики, очевидно. Зачем для этого гугл и яндекс?

Согласен с вашим аргументом. Вы — опытный специалист, вы можете взять логи от shared host, распарсить их и построить инфографику скриптовым языком. Это самый гибкий и удобный способ.

Но смотрите: вот человек занимается веб-сайтом через CMS-движок с готовым скином, не имеет доступа к логам и не знает языков. Да, есть программы для обработки логов. Да, можно распарсить лог в Excel. Но для этого всё-таки нужны логи…

Без логов — остаётся только яндекс-аналитика. Некуда бежать.

Я не буду парсить логи, я просто поставлю какой-нибудь awstats, который сделает это за меня. А нормальные shared-хостинги предоставляют этот самый awstats из коробки. Нахрена вообще приходить к хостингу, который не даёт логи?

Хостер даёт логи. Компьютерный специалист не даёт доступа к логам. Поэтому сотрудник «не имеет доступа к логам».

(Примеры из жизни, буквально directed by Robert B. Weide.)
Компьютерный специалист не даёт доступа к логам.

Очевидно это компьютерный специалист должен предоставить информацию в читаемом формате.
В современных условиях многое оседает в CDN, не оставляя записей в локальных логах. И речь не только про картинки, но и про динамику для неавторизованных пользователей.
Если цель — просто зафиксировать факт посещения динамики, то можно например просто воткнуть пиксель/XMLHttpRequest/fetch на сервер в обход CDN. Городить для этого целую гугл-аналитику всё равно ни к чему

Вы вообще как давно в аналитику заходили, яндекса там или гугла?
Австатс — это 90ые, там вообще нет ничего.

А так ли нужны все эти данные? И нужно ли при этом сдавать их гуглу и яндексу, зачастую одновременно?
Аналитика позволяет оправдать и объяснить существование сайта.

Лучше, чем продажи с сайта, объяснить существование сайта ничего не может.
Если на сайте находится магазин, тогда вы правы.

Если на сайте ничего не продаётся, тогда дело другое. Пример, который пришёл мне на память, как раз не для продажи товаров.
Всегда есть альтернатива, может не такая удобная, но в е есть. А вот насчёт скриптов для шеринга я согласен, что это зло.

Кроме этого, если Вы взглянете на водопад загрузки, то увидите, что загрузка скриптов аналитики идёт асинхронно и основная часть скриптов грузится после загрузки страницы и ещё полусинтетический тесты типа Гугл Маяка не показывают реальной картины, т.к. искусственный тротлинг хоть и похож на настоящий, но все же далёк от средней температуры по больнице (аудитории конкретного сайта) и часто в худшую сторону. Не стоит идеализировать подобные результаты, да, они коррелируют с реальностью, но все же это не сильно реальные данные.
И как это починить?

На самом деле способы есть. Эта ругань следствие, а не причина. Причина обычно в медленно исполняющихся скриптах.
Всё, что может быть исполнено отложено, должно быть исполнено отложено. Рекапча? Грузите её только при появлении формы на экране, или вообще по клику на кнопку отправить. Шаринг в соцсетях? Зачем вообще левый скрипт? Кнопки реализуются простыми тегами a с подстановкой параметров либо небольшим скриптом, либо вообще на бекенде, для этого не нужны десятки килобайт минифицированных скриптов на странице вкупе с пачкой стилей и картинок оттуда же. Нужно отключить вебвизор у яндекс-метрики, если это невозможно, то нужно уменьшать число DOM элементов на странице, там чуть ли не квадратичный рост сложности от числа элементов на странице.
И любая страница забегает.
Полностью с вами согласен, но это когда сайт пишется вами. У меня же готовая CMS и компоненты к ней. Одно время я пытался самостоятельно оптимизировать и модифицировать компоненты, но при выходе их новых версий желательно делать их апдейт и соответственно все сделанные ранее изменения отменяются или становятся полностью не совместимыми. Та же капча — устанавливается компонентом комментариев JComment. Влиять не него довольно проблематично.
То же касается и числа элементов DOM — влиять на него в готовой CMS трудно.
Особенно если сам не являешься web программистом, а поддерживаемый сайт на грани между профессиональной деятельностью и хобби.
Вы это говорите тому, кто 2 года возился с Битриксом, в том числе и в плане оптимизации. Да, я профессиональный web программист.
Я вот это «Особенно если сам не являешься web программистом» говорил про себя.
Смотря что считать загрузкой.
загрузка хабра согласно файрфоксу, адблок включен, эта страница, из под юзера
56 requests
2.90 MB / 1.75 MB transferred
Finish: 14.21 s
DOMContentLoaded: 3.03 s
load: 9.63 s
Поисковый робот учитывает, сколько людей ушли с сайта, посмотрев всего одну страницу. Для системы это означает, что ресурс нерелевантный, некачественный или неудобный. Его рейтинг автоматически понижается.

Дальше уже точно можно не читать… Предложение ну настолько бредовое…

Задача поискового робота предложить человеку страницу, на которой он найдет то, что ему надо. Поэтому в метриках поисковика заложено, что хорошо, когда человек просмотрел на сайте 1 страницу и закрыл поиск. Значит он нашел, что искал.

PS По секрету подскажу, что грубо (опять же там много факторов) минус в карму ставится за то, что в поисковой выдаче прошел клик на следующий сайт. Значит на предыдущем пользователь не нашел, что искал. И вполне возможно, что за просмотр большого количества страниц на сайте, минус в карму окажется еще больше (пути машинного обучения неисповедимы в некоторых случаях).

Одно другому не мешает.
SEO — это не программирование с чётким ТЗ, счёт тысяч долларов идёт на миллисекунды, а скорость многие недооценивают до сих пор.

Вы путаете поведенческие факторы на сайте и поведенческие на поиске. Да, есть понятие ласт-клика на поиске, но автор говорил про расчёт отказов на сайте. И за отказ засчитывается, в том числе, просмотр одной страницы на сайте (в гугле, у Яндекса ещё плюс время).
Статья, конечно, опять повторяет все, что было сказано миллион раз до этого, но бреда там нет, только банальности

Я бы назвал SEO не search engine optimization, а search engine manipulation или search engine spam. И почему-то постоянно говорят, как это полезно для владельцев сайтов, но забывают про самих пользователей, которым надо пропускать всю эту шелуху на первых страницах выдачи. И почему сайт по продаже домиков для шиншилл, построенный месяц назад должен обогнать сайт с многолетней историей, с кучей статей о шиншиллах и форумом, только потому что кто-то захотел быстро продвинуть свой проект в топ. Для этого вообще то существует реклама.

Почему должен?
Ну а — почему не должен?


С таким старпёрским подходом мы б ещё читали при лучине.

Вы меня простите.
Я не хочу обидеть СЕОшников.
Но мне кажется в аду для них установлен специальный котел.
Объясню, свое возмущение.
— В погоне за скоростью и за просмотрами страниц и за переходами.
Начали делать, одну статью разбивают на много маленький статей, перелинковывают все это.
И в место того, зайти на страницу и получить информацию, сейчас приходится переходить по страницам.
— Относительно текстов. Как уже достали эти копирайтеры и рерайтеры.
Когда владелец сайта, заказывает статья к примеру по педиатрии или медицина. В большинстве случаев, его интересует статья на определенную тему (ключи). А то, что там может оказаться не релевантная информация, его это не интересует. Главное трафик.

Поисковые боты, иногда тоже поступают не корректно.
Был у меня когда-то сайт с специфической тематикой.
Контент я брал с португальских сайтов. Оплачивал переводчиков.
Но конкуренты и плохие люди.
Взяли скопировали мой контент, также добавили некоторые материалы и в Википедию.
И вы думаете, что мой сайт был в ТОПе?
Нет, в топе были конкуренты, который украли контент и Википедия.
Вот вам и честные алгоритмы
Картинка «Сайт попал под фильтр, падение трафика» убила)))) и сразу трафик в ноль со всех поисковиков и с контекстной рекламы и прямые переходы даже. Видимо жёсткий фильтр попался, что аж снёс сайт или отключил сбор статистики.

Большое количество отказов неизбежно приведет к санкциям

Из-за отказов санкции и фильтры на сайт не накладывают.

Вообще ощущения, что прочитал seo статью от средненького копирайтера.
Мне кажется, если бы всё так завязывалось на скорости очевидно умные сверх индусы уже бы написали что если в юзер-агент === гугл-бот то грузим огрызок страницы. А чё, быстро бы было
Так гугл это палит и вообще накладывает санкции за такое поведение.
Интересно, и как же он палит подобное? (не сарказм, действительно не могу понять)
Очевидно заходит иногда с обычным UA с обычных сетей, и сравнивает результат. Если сильно отличается, то считает, что это клоакинг, и принимает соответствующие меры.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.