Как стать автором
Обновить

Комментарии 60

Примерно половина стартапов ложиться после вывода на главную.
собственно, очень хочется уменьшить это количество :) Ведь так много интересных проектов делают
Я бы добил в пост не только о стартапах, но и об обзорах.
Часто пользователи вставляют картинки со своего блога, что создает просто бешеную нагрузку.
Тут лучше использовать (рекламная пауза) мой любимый хостинг для картинок или любой другой, яндекс, пикаса и куча других (только не те, где по траффику считают). И бложек не загнеться и картинки будут видны всем.

Вот кстати нагрузка на pict.com.
НЛО прилетело и опубликовало эту надпись здесь
Первый раз домен когда увидел, подумал что что-то про небезызвестного ЦЯ с взора.
Только вот не веб-оптимайзером это делать надо :)
им в том числе :)
Спасибо, интересная и как раз актуальная статья. Про loadimpact.com и не знал раньше, полезный сервис оказался!
Мне ещё, как аналог YSlow, гугловский Page Speed нравится.

З.Ы Статья интересная — подчерпнул для себя пару ссылок полезных.
Испытал на своих стартапах несколько хабраэффектов и ни разу хостиг меня не подвёл.
Вывод: нужно выбереть хороший хостинг. :)
>выбереть

выбрить! Хороший хостинг нужно тщательно выбрить ;-)
Спасибо )
А у вас какой?
loadimpact сам скоро ляжет — сейчас он проверяет тысячи российских сайтов :)
Habrahabr перегрузка!

Russian site habr's Load Impact!

Yesterday, the Russian site habrahabr.ru wrote an article [...]

This, of course, caused us to get habr'd!

loadimpact хорош, а есть аналоги?
В тему: если сервер не справляется с наплывом посетителей, то есть масса способов его оптимизации, об этом написано множество статей, в том числе и на Хабре. А вот если все способы перепробованы, но сервер все равно не выдерживает нагрузку — можно попробовать разместить статический контент на CDN (см. ru.wikipedia.org/wiki/Content_Delivery_Network).
А какова цена вопроса?
Услуги CDN обычно тарифицируются погигабайтно (за исходящий с сети CDN трафик). Стоимость зависит от общего объема трафика.
CloudFile от RackSpace — 18 центов за гиг, если грубо. Но там еще бывает тарифицируют операции записи.
Далековато они находятся))
Кто? Сам RackSpace или серверы их CDN? :)
Насчет серверов их не знаю, но судя по тому, что их сайт грузится несколько секунд, и сервера их далеко, или не так?)
Сам RackSpace грузиться долговато, да. Мой VPS не нем весьма быстр, хотя я CDN тамошний не пользую, нет нужды.
А уменьшится ли загрузка есть выносить некоторые файлы (например картинки, флеш и д.т) на отдельный поддомен? Или это особой роли не играет?
Не думаю что уменьшится, если поддомен будет на том же сервере. Этот шаг помогает лишь ускорить загрузку статики, т.к. браузер имеет ограничение на количество коннектов к одному домену, и, например, не может грузить больше 3х ресурсов с одного домена одновременно.
Если у вас поддомен указывает на другой сервер (который предназначен для хранения и отдачи только статического контента), то смысл есть.
Полезно конечно, но у нас админ есть толковый, так что за ним как за каменной стеной, свой хабраэффект пережили. Но мне хотелось бы описание по поводу этой штуки получить:

>Зачем это нужно? Фактически, это экспресс-проверка на Хабра-эффект. Здесь можно использовать сервис loadimpact.com, с помощью которого получить примерно следующую картину (сервис эмулирует нахождение нескольких пользователей у вас на сайте):

Каким образом оно это эмулирует? У них есть собственный ботнет для тестирования? Или там какие то хитрые математические алгоритмы?
если я правильно представляю логи их запросов на сайт, то сайт «просматривается» вглубь на 3-5 уровней (случайным образом). На каждого «пользователя» приходится 20-30 просмотров различных страниц (т.е. они «запускают» 10-20..-50 потоков, каждый из которых «тащит» свой набор страниц через случайные промежутки времени). IP вроде одинаковый (на каждую проверку — 50 сокетов, обычного сервера вполне хватит для 100 одновременных проверок, главное, чтобы канал позволял).
Лучший способ проверить готовность к Хабброэффекту — провести тест на эталонном сервере и понять как настроить так, чтоб оптимально работало
Например — апач в воркере, число процессов по числу камней, число тредов по числу гипертрейдинговых и беклог в nginx побольше — выдерживает даже digg-эффект
Самое простое, что всегда есть под рукой — ab. Никаких внешних сервисов не нужно, сделать первое приближение вполне позволяет.
и еще вроде бы Гугл собирается с нового года оценивать быструю загрузку как фактор влияющий на место в выдаче.
Значит, чем дальше хостинг будет от америки, тем хуже выдача? :)
хотя у них датацентры по всему миру, но именно боты ходят только с америки
думаю в гугл тоже не дураки сидят чтобы конкретно задавать хост с которого будет идти обход сайтов
скорее всего будут учитывать расстояние в миллисекундах
а откуда магическая цифра в 50 пользователей?
100/2
1000/20
выбирайте, что больше по душе
> site-perf.com. Быстрая оценка времени загрузки, желательно иметь не менее 4 секунд (в силу того, что сервера расположены не в России, оценка не настолько адекватна).

не более
оО странно, такое ощущение что при росте нагрузки скорость загрузки страниц растет оО
кто-то активно кеширует ;-)
те страницы 100% не кэшируются, которые он дергал.
Вашим сервером да. Может кто посередине?
Нет никого посередине. Не думаю что магистралы станут кэшировать чей то траф)
Спасибо за статью, прочитал бы я её раньше и проблем с хабрэффектом+автоимхо удалось бы избежать.
НЛО прилетело и опубликовало эту надпись здесь
За loadimpact.com отдельное спасибо! Уложил свой vps спать ;)
This configuration contains addresses that has been tested too many times the last 24 hours. The offending domain was: tut.by
:)
imho, грамотно сделанному сайту не страшен хаброэффект. Если для выдачи страницы выполняется много работы — то чем больше пользователей — тем сильнее они буду тормозить сервер. Решение простое — хоть ruby on rail, drupal, php и прочие ваши любимые инструменты и чудесны — но всему свое место. Информационная часть сайта (тот же «каталог товаров» для вебмагазина) она одновременно и самая посещаемая (больше всего хитов) и статичная. Так что либо статически генерировать страницы (и автоматом их пересобирать при изменении), либо, если уж совсем психологически сложно отказываться от своей CMS и database-driven-website, то memcached или proxy перед сайтом.

А для статики советую поглядеть WML — Website Markup Language. Сайты собираются обычным make'ом при изменении данных. А обычный апач на обычном вебсервере может столько статичных запросов обслужить — что не каждый хабр такой эффект создаст. ;-)
Судя по логам, loadimpact запрашивает только первую страницу и css. Так что я морду он протестирует, а вот насчет морды вкупе с остальными публичными страницами — я бы не обольщался.
хм… вместо моего сайта какойто матрикс-клуб оказался в линке))
Я поражаюсь действиям некоторых прыщавых дебилов, которые, сожаленью, и здесь представляют неубиенную породу дебилов. Ставят минусы людям, высказывающим свое мнение, причем адекватное мнение. Кому вообще нужны эти минусы и плюсы если их лепят только за то, что кто-то высказал соображения, отличные от сообразизмов кретинирующих садогедонистов?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории