Как стать автором
Обновить

Комментарии 30

в WP я просто убрал из вывода поле URL и теперь спамеры работают на меня — оставляя полуосмысленные комментарии=)
Штук 100 в день — пропускается 20-30 «нормальных» и 1-2 обычных=)
Правда, еще раз в месяц самых активных спамеров по ip в BL загоняю — на какое-то время падает активность
Логичный подход. Я у себя на Drupal-сайтах просто не добавляю поле URL и получаю ту же картину.

А тем, кому позарез охота со мной пообщаться, кругом оставляются ссылки на контактные формы, форумы и пр.
а зачем вы печеньки обзываете конфетками? :)
Да вроде нет единого устоявшегося перевода. Хотя да, «печенье» в буквальном переводе уместнее. Выпечка, в общем.
Нет перевода так и называть «куками». Только не «кукисами», в двойном множественном числе.
Думаю, с течением времени один из вариантов станет de facto стандартом и можно будет не спорить, как именно называть.
Печеньки, печеньки… Вот плюшки это по нашему, по русски! =)
А хорошая мысль, кстати! Спасибо.
rel=«noindex,nofollow» как атрибут всех ссылок. Не всегда эффективно, не всеми поисковиками эти атрибуты принимаются во внимание. К тому же, при безусловном наложении таких атрибутов на все без исключения комментарии интерес к сайту потеряют многие легитимные посетители.

Нафиг нужные такие посетители, которые пишут комменты для возможности оставить свою ссылку в чужом блоге. По-моему, самый разумный вариант.
Согласен с вашим подходом, но у других блогодержцев может быть другое мнение.
А сколько процентов людей по статистике сейчас выключают js на страницах? Имхо уже единицы.
Статистику было бы интересно собрать. Однако же NoScript и сам использую охотно, и открываю только те сайты, в которых полностью уверен.
Я одно время тоже активно юзал, так же и в целях экономии траффика (благо сейчас такая необходимость отпала). Но потом стало понятно, что без js с каждым разом все сложнее и сложнее. А с точки зрения разработчика и подавно.
По крайней мере около года назад по статистике (лично, правда, не видел) js был отключен примерно у шести процентов пользователей, мне кажется, что эта цифра несколько уменьшилась за это время.
js не поможет. боты работают напрямую с сервером.
Вот один из сценариев, которую я имел в виду: чтобы узнать корректные имена полей, которые нужно упомянуть в POST-запросе, необходим действующий JS — чтобы раскодировать часть страницы.

Без неё бот не может узнать, что именно посылать в запросе. Отправит неверные данные — попадёт в чёрный список, а комментарий не появится.

Очень даже может помочь и прекрасно помогает, более того.
> Отсутствие заголовка Referer.
У меня в Опере отправка Referrer отключена по умолчанию (не спрашивайте зачем.)
Раздражает, когда используют этот метод, и не сообщают об этом.
Хабр, например, при попытке логина ругался только «Действие не определено» — вот и догадывайся, в чём дело…

> Разбитые URL.
Любопытно. Кстати, можно сделать так, чтобы бот добавлял сам себя в бан-лист, используя вместо «замусоренного» URL специально подготовленный для него.
> У меня в Опере отправка Referrer отключена по умолчанию (не спрашивайте зачем.)
> Раздражает, когда используют этот метод, и не сообщают об этом.

Предупреждать — надо точно. Ну или не считать этот метод особо важным (боты давно умеют его ставить, а проверка Cookie и «сессионного ключа» эффективнее).

>> Разбитые URL.
>Любопытно. Кстати, можно сделать так, чтобы бот добавлял сам себя в бан-лист, используя вместо >«замусоренного» URL специально подготовленный для него.

Ловушки — «HoneyPots», ага. Этот приём давно используется — например, на FreeViral я видел его в действии.
Хороший и популярный пример «битых адресов» — фильтр spamspan для Drupal. «Демонтирует» адреса email так, что в исходнике страницы не каждый бот сумеет опознать.
Про переименование полей.
Это вырубает автозаполнение в браузерах, что раздражает легитимных пользователей.
Тогда выбирать, что дороже — удобство для пользователей или время, потраченное на ловлю спама.
Конечно, удобство для пользователей.
«Эффективность, надёжность, удобство — выбирайте любые два».
Собственно, пока у меня в закрытой бете такая наработка — Parasite Eliminator
Интересная мысль. С учётом того, что самообучающийся движок для борьбы со спамом (точнее, с нежелательным контентом вообще) пишу и я. ;)

Было бы интересно пообщаться на эту тему. К слову, сужать область применения только до Wordpress — так ли надо? Сделать API и интегрировать с чем угодно.

Удачи.
/*
г) (если включен JS) при помощи AJAX-методик меняем сессионные параметры, чтобы усложнить жизнь ботам
д) создаём ложные поля помимо корректных, для всех них создаём случайные имена, при наличии JS шифруем ту часть страницы, где собственно поля ввода — для затруднения жизни ботам
*/


Ну не будет у роботов JS (а зачем себе жизнь усложнять), и что тогда? :)
Два пункта навылет.

и ещё, вроде не упомянуто, но какая-то часть роботов (подозреваю, большая, но какая на самм деле?) имеет общий характер, т. е. созданы для работы с популярными движками — это знание может «нам» пригодиться.
Вроде бы я уже это говорил. Не будет у ботов JS — не смогу дешифровать форму и «понять», какие имена полей передавать в запросе. Как следствие, передадут не то и/или не туда.

Спамеры никогда не тратят усилия сверх необходимого. 99.9% владельцев сайтов на том или ином движке и н почешется предпринять подобные модификации — стало быть, и боты могут использовать «стандартные» установки — и горя не знать в большинстве случаев.
Тогда я не понял к чему эти уточнения «если включен JS)» и «при наличии JS». И что вы будете делать с клиентами без JS.
Вроде бы в тексте сказано — что если требовать включенного JS, имеет смысл рассмотреть то-то и то-то как варианты противодействия ботам.

Что я буду делать с клиентами без JS, зависит от конкретного случая. В статье перечислены варианты, вовсе нет нужды применять их непременно все.

IP клиента сменился между запросом страницы и отправкой формы. Сейчас всё ещё есть провайдеры, при работе через которых назначенный IP компьютера может время от времени меняться. Редко, но бывает. В других же случаях это, скорее, свидетельствует об использовании прокси (см. также ниже) и может рассматриваться как подозрительное действие.

Это не редко. Это суровая жизнь при Стриме. Раз в день стабильный дисконект по тех причинам. И кста юзер чаще всего не увидит дисконекта, тк на его стороне будет стоять роутер.
А вот при отправке через бота скорее всего будет такая ситуация 1) запрос страницы 2) пост-запрос 3) смена прокси и далее по кругу.
Так что это не правило.
Лучше самому выкачать прокси листы и не давать делать более n-комнентов за y-чавов.
Стрим (WebStream в случае Новосибирска) и у нас отсекает связь раз в сутки, но вот IP всё-таки у меня статический. Интересно было бы поинтересоваться, у скольки абонентов он динамический.

Правил тут, конечно же, нет. есть более или менее характерные «схемы поведения», по которым и следует опознавать, бот или нет.

Я исхожу из того, что авторы ботов всё же не сидят сиднем, а тоже иной раз озабочены вопросом, как сделать поведение программы наиболее похожим на поведение человека.

Спасибо.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории