Comments 23
Ну и реклама пары ресурсов за одно + размещение ссылок на «пиаристом» ресурсе :)
Да, разрабатывалось, когда я учился в институте. Разрабатывал для себя, а также защитил курсовую :)
А как же поисковые роботы и пользователи которые сидят за NAT?
От такого решения больше вреда чем пользы.
Мне очень помогало. Данное решение помогало экономить деньги на хостинге, а также от взлома админки. Сайт dota-manual.ru рукописный и его взломать перебором пароля раз плюнуть. .htaccess использовать было нельзя. А данное решение просто и со вкусом.
Имею большой опыт работы с очень крупными проектами. Нигде не сталкивался с подобным — я имею ввиду т.н. защиту от интенсивных запросов. Чтобы сайт не валился от парсинга страниц необходимо использовать методы кэширования. В целом же выдача по адресу какого-то сгенеренного текста вместо реального содержимого страницы может привести к санкциям от SE и вообще к непоняткам в работе ресурса и напряжение службы поддержки.

Это плохой метод решения проблемы, которая к тому же не доставляет таких неудобств, а проблем можно отгрести намного больше, чем экономии ресурсов сервера.
Это полезно, когда прилетают какие-нить 1+ миллиона паразитных запросов в секунду на машину. Из них легитимных единицы процентов. Но не на php скриптике и файлах в ФС такое обрабатывать, конечно.
А я вот сталкивался) Пишу/исправляю при необходимости тут на досуге для знакомого парсер deviantart.com. Я пока еще нигде не встречал такой изощренной защиты от парсинга — максимум ндцать запросов за опеределенный промежуток времени с одного аккаунта/ip, проверка на возможность доступа к странице с указанного referer, постоянная запись в куки какой-то информации без которой последующие страницы не будут доступны, скачать файлы можно только в течение нескольких минут с момента получения токена и еще куча всякого. Жуть в общем, но тут за счет тематики сайта такая защита действительно оправданна.
Все уже сказали, но я еще раз допишу.
Казенный язык и жуткий шрифт в серых прямоугольниках обдает таким совком, как буд-то у сайта проходную поставили с вахтером. Впрочем это нивелируется тем что это курсовая работа, хотя становится немножко грустно.
Плюс все вышеперечисленные пробемы — считать таким образом ссылки и хиты, гарантированно приведет к проблемам с доступом к сайту у легитимных пользователей и очень быстро. Даже если у сайта будет 100 посетителей в день — человек 5 будут жаловаться что что-то не грузится и не открывается. Это как из теории, так и из практики, я тоже был молодой. Плюс конечно весь набор любого уважающего себя сайта — индексация поисковыми машинами, любые SEO, всякие распределения нагрузки — все это сразу сворачивается к праотцам.
Если выкручивать у такого скрипта параметры к миллионам (реально проблемным атакам) и ставить его на сравнимые нагрузки — сразу окажется что 80% времени сервер занят исполнением этого скрипта.
А можно адресок сайта на котором стоит этот скрипт, хочу посмотреть что будет если отправить ему миллион запросов с подделанными разными «X-Forwarded-For: »? =D И все из диапазона 255-999.255-999.255-999.255-999. Если я не разучился читать пхп он создаст миллион файлов с такими именами которые никогда не будут стерты.
Видели когда-нибудь как работает линукс с миллионом файлов в директории?
Да уж в каком то роде инновационное решение в публикации. Так, от DDos и взломов еще никто не защищался…
Уже в который раз читаю на хабре статью, в которой предлагается способ защиты от ддос, который на самом деле облагчает задачу ддосеру. Помню статью, где обсуждалась защита от перебора пароля в форме аутентификации и предлагалось банить от попыток входа на какое-то время пользователя, в которого пытались зайти. Разумеется, ддосеру достаточно постоянно пытаться влогиниться под всеми пользователями, чтобы никто не мог войти. И подобных примеров видел немало. Вывод: для ИБ требуется опыт.
Данный скрипт не рассчитан на миллионные запросы. А так он спокойно удаляет файлы по истечению времени.
А можно показать чем он удаляет? Я вижу только кусок кода который удаляет старый файл если на него попадает новый запрос. Если будет всего один запрос с поддельным X-Forwarded-For то файл останется в директории навсегда.
Как курсовая работа, конечно прекрасно, но, на практике, рекомендую не изобретать велосипед, а использовать, как уже говорили выше, штатные средства nginx (у вас же nginx наружу смотрит, не так ли?) во взаимодействии с fail2ban — отличная программа, которая анализирует логи и управляет правилами файрволла. Настройка и поддержка такого решения очень проста, мануалов в сети куча, да и кроме HTTP DDOS позволит защититься например от брута других протоколов и т.д.
Nemesida WAF — это межсетевой экран прикладного уровня (Web Application Firewall), позволяющий обеспечить защиту сайта от хакерских атак даже в случае наличия на сайте уязвимости «нулевого дня».
Only those users with full accounts are able to leave comments. Log in, please.