Комментарии 32
Еще есть server side includes
+1
Сразу, что бросилось в глаза:
gzip_comp_level 9;
Зачем? 4-5 Хватит за глаза. Этим вы нагружаете процессор не нужной работой по сжатию. Эффект при сжатии с коэффициентом выше 5 — минимальный и не стоит того.
gzip_comp_level 9;
Зачем? 4-5 Хватит за глаза. Этим вы нагружаете процессор не нужной работой по сжатию. Эффект при сжатии с коэффициентом выше 5 — минимальный и не стоит того.
+21
Что-то по-моему перемудрили. Чем родной кеш IIS'а не угодил? nginx это замечательно, но зачем еще один балансировщик? Чем больше звеньев, тем неустойчивей система, на мой взгляд. Первый балансировщик — железка или тоже nginx?
+1
Я так понял первая железка — это простой сервер с *unx на борту, на котором и идет это кешировани.
Но зачем на столько все сложно делать, я не пойму…
Но зачем на столько все сложно делать, я не пойму…
0
Первый балансировщик — HAproxy, собираемся добавить второй и собрать кластер.
Кеш IIS не угодил тем, что сервера приложений и так загружены, и надо было вывести сжатие страниц с них.
Кеш IIS не угодил тем, что сервера приложений и так загружены, и надо было вывести сжатие страниц с них.
0
nginx прекрасен, спору нет)
Только что-то тут кажется лишним:
1. либо nginx+IIS, на nginx балансировать и кешировать,
2. либо HAproxy+IIS, на IIS кешировать, при правильном использовании и нагрузка на сервер упадет соответственно сразу.
Только что-то тут кажется лишним:
1. либо nginx+IIS, на nginx балансировать и кешировать,
2. либо HAproxy+IIS, на IIS кешировать, при правильном использовании и нагрузка на сервер упадет соответственно сразу.
0
А, ну и третий вариант: nginx+IIS, балансирование nginx, кеш на IIS )
0
Чем плох вариант nginx — haproxy — backend?
При этом nginx раздает статику, держит коннекты, буферизирует, хапрокси обеспечивает равномерную нагрузку на бекенды и отказоустойчивость, одновременно защищает от превышения кол-ва коннектов не бекенд.
При этом nginx раздает статику, держит коннекты, буферизирует, хапрокси обеспечивает равномерную нагрузку на бекенды и отказоустойчивость, одновременно защищает от превышения кол-ва коннектов не бекенд.
0
curl -A "WGET-POST-daemon" http://www.wildberries.ru >> /dev/null
:P
+2
Хм, я бы обновлял нужный кэш сразу после события, со стороны IIS, либо хранил бы его в memcached и сбрасывал бы ключи чтобы nginx перечитывал. По-моему гораздо проще и не надо демонов обновления городить и анализатор лога
+1
вообще не представляю как это поддерживать :)
но за «KYKY-B-PYKY-U-ATAC» спасибо ))) буду использовать во всех своих проектах!
но за «KYKY-B-PYKY-U-ATAC» спасибо ))) буду использовать во всех своих проектах!
+7
Зачем?
Если можно
Как вы будете задавать несколько серверов?
set $backend 127.0.0.2;
proxy_pass http://$backend;
Если можно
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com:8080;
server unix:/tmp/backend3;
}
proxy_pass http://backend;
Как вы будете задавать несколько серверов?
+2
logrotate можно кастомно дёргать по крону со своим конфигом хоть кажую минуту.
По поводу демона для кеша: если у вас девелоперами можно договариться — то самымое простое это чтобы приложение на бэкенде само дёргало урлу для инвалидации кеша. А вообще, да, мемкеш наше всё.
По поводу демона для кеша: если у вас девелоперами можно договариться — то самымое простое это чтобы приложение на бэкенде само дёргало урлу для инвалидации кеша. А вообще, да, мемкеш наше всё.
0
Хорошая статья. Однозначно в закладки.
-1
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Кеширующий прокси-сервер на nginx. Хитрая конфигурация