Как стать автором
Обновить

Комментарии 31

> на фронтенде это могут быть минимальное время заполнения
> формы, меньше которого может заполнить только бот

Так это из-за вас у меня автоподстановка данных в форму на некоторых сайтах ломается?
В том же абзаце ниже написано какую стратегию применяем мы (полная фильтрация трафика). Она никак не влияет на автозаполнение форм. Так что ответ такой — нет, это не из-за нас!
Реклама неплоха так-то. Вашу защиту не видел. На счёт «хороших» ботов за них как правило хорошо платят, так что они обычно делаются точно под сайт с дублированием всех необходимых запросов(html может вообще не трогаться), так что капча как правило с ними и не борется, только немного увеличивает время разработки. По факту капча это излишество, но спасает от тучи посредственных ботов, что бы они не пытались уронить сервис. Блокировка ip как правило не сильно спасает особенно через сторонние сервисы.
Капча была бы лучше, работай она на человека, а не против. Капчу яндекса я вообще иногда не могу пройти. Капча гугла часто затягивается на секунд 30, стоит только выйти из аккаунта, особенно если заходить с прокси.

Ну, в общем-то, капча и сейчас выполняет свою основную задачу — отличить робота от человека. Только раньше роботом был тот, кто не смог решить капчу, а теперь — тот, кто смог.

«Мы в Variti проанализировали эффективность этого решения и пришли к заключению, что это очень неудобное и малоэффективное средство защиты от ботов, плохо влияющее на конверсию, а области с капчей — это сами по себе уязвимые места для атак.»
Вы можете придти к чему угодна, но факт, на моих сайтах капча существенно снижает спам, и пока лучшего решения я не видел.
Honeypot?
Так может мух от котлет отделить? Какую проблему-то решаем?

Капча не выполняет свою основную функцию — не избавляет владельцев ресурсов от ботов. Вариантов “борьбы” спамеров с капчей даже больше, чем один.

«Авто-сигнализации не выполняют свою основную функцию — не избавляют владельцев авто от угонщиков...»
Ну так потому что «избавить» никогда не было «основной функцией» :) Функция — сделать сайт\авто чуть менее привлекательным для ботов\угонщиков, чем соседний экземпляр. Если рядом стоит две машины и в одной двери открыты, а в другой стоит сигналка, угадайте, какую выберет угонщик.

Если решаем проблему массовых фейк-регистраций (хотя казалось бы, какой в принципе от этого профит ботоводам?), то, кажется, капча при регистрации + емейл-подтверждение + может даже самый наколеночный фильтр по айпи (ну там больше N попыток регистрации с этого айпи за последние несколько минут — сходите попить кофе) отсекают подавляющее большинство ботоводов. А кому именно ваш сайт нужен, от того не спасет.

Решаем проблему спам-комментов — так в совокупности с хоть какой-то защитой от фейковых регистраций это должно перестать быть проблемой.

Вот только капча бесплатна, или максимум стоит разовой суммы разработчику. А ваш сервис — это ежемесячная оплата. Т.е. перекладываем расходы с атакующего на атакуемого. Ну т.е. сервис должен реально понимать сумму, что он теряет на снижении конверсии, что бы отдать ее вам.


Проблемы капчи — это false negative, с которым можно как-то бороться дальше. А фильтрация трафика даст еще и false positive, который — прямые потери, которые уже не вернешь.


А в целом все так, анализ поведения — хороший способ отстрела ботов, тут кпача не поможет… или, ох, стоп, reCAPTCHA v3. Было бы интересно сравнить.

False positive — это когда пользователь, увидев капчу, закрывает сайт.
Лично я так делаю в большинстве случаев.

Формально это не false positive, и самое главное — хорошо поддается аналитике. В том числе — является ли то, что вы закрыли сайт — потерей конверсии, или все все-равно просто мимо пробегали.
False positive в капче — это скорее неверно введеный текст из-за сложной картинки, но плюс капчи в том — что она при этом дает дальнейшие попытки, т.е. возможность исправить эту ошибку.

И как же вы достоверно узнаете, что тот кто закрыл ваш сайт на капче — не потенциальный клиент, который просто открыл следующую за вами ссылку в гугле?
статистически, тестированием
Про минимальное время заполнения формы, display: none, блокировка user-agent и пр. — это просто смешно.
Свои решения капчи сейчас использовать нецелесообразно, конечно. Будет убого, не читабельно для пользователя и легко взломается, плюс куча времени уйдёт на поддержку.
Вот рекапчу взломать достаточно сложно и не нужно её поддерживать.

По поводу фильтрации трафика. Вы считаете, что бот не способен повторить все те же самые действия, что и человек, послать правильные заголовки, выполнить какой-то js и прочее? Всё это просто вопрос цены и целесообразности этим всем заморачиваться.
Про минимальное время заполнения формы, display: none, блокировка user-agent и пр. — это просто смешно.
Напрасно смеётесь. От решающих гуглокапчу спам-ботов мне удалось отбиться именно таким детским способом — сделать дополнительное скрытое поле, которое они видят и заполняют. Главное в этом случае не писать 'display:none' прямо в форму, а использовать отдельный файл css: роботы как правило не грузят с сайта ничего лишнего. А ещё не нужно сообщать боту об ошибке — наоборот, нужно уверить его, что у него всё получилось.

Таким способом от спама вылечилось порядка 15 сайтов — так что я хорошо себе представляю, о чём говорю. В моей практике попался только один спам-бот, который оказался «умным» и не заполнял это поле. Проблема в этом случае решилась заменой гуглокапчи на простенькую и оценкой скорости — этот робот погорел на слишком быстром заполнении формы.

Так что «минимальное время заполнения формы, display: none» — исключительно эффективные методы, кто бы что ни говорил. Проверено практикой.
Такие методы могут работать только для ботов, которые не целятся конкретно в ваш сайт. Они пойдут по пути наименьшего сопротивления и проспамят те сайты, которые получилось.
Я говорил больше про тех спамеров, которые нацелены на конкретный сайт.
НЛО прилетело и опубликовало эту надпись здесь
Интересно. Но если цель бота просто оставить спам, то ведь ему хватит одной попытки.
НЛО прилетело и опубликовало эту надпись здесь
Я к тому, что для wargaming это — отличное решение. А для обычного сайта, который, например, спамят через контактную форму это не поможет. (Помогло бы, если бы это решение стояло у всех. А если будет только у вас у меня и у Wargaming, то спамера это задержит на 3 секунды)
Но зато спасает в том случае, если бот обходит сразу множество сайтов параллельно и оставляет там спам. Допустим, если за секунду он обходит 100 сайтов, а подбор этой капчи занимает 2 секунды, то проще за это время обспамить 200 незащищённых сайтов, чем 1 защищённый.
У пользователей очень разные CPU, то что считается за 1-2сек на десктопной машине, может выполняться пару минут на старом мобильном устройстве. Таким методом можно не просто убить конверсию, а сходу отрезать целый пласт гарантированно валидных клиентов
Так себе идея против спам-ботов. По собственному опыту могу сказать, что существует куча ботов, которые ради отправки спама способны решить рекапчу гугля. Тратят они на это, судя по логам, несколько минут. И ничего — решают и отправляют. Их это вовсе не останавливает. Потому как ничто не мешает сделать бота многопоточным: подвисание одного потока из многих его не напрягает.
Это называется Proof of Work. Собственно похожий алгоритм использует и CloudFlare.
Я, наверное, робот. У меня капча часто не срабатывает, заполняешь по два-три раза. Ну или фотки тыкаешь, тыкаешь, а оне не те. :)
Но счас горящий лис сам как то всё это пропускает мимо, стало гораздо лучше. Или это гугл подобрел?

Подозреваю, на репапчу ослабили/зарезали resistFingerprinting. По крайней мере баг что рекапчу с защитой от трекеров пройти нельзя, а на багзилле видел. А может действительно им кто-то антимонопольщиками пригрозил.
А так вы просто неправильно интернетом пользуетесь. Браузер у вас неправильный, кук гугловых маловато, в гугл аккаунт еще наверное не вошли.

Вот есть два сайта — мой и моего друга Васи. Для него боты вредны, а для меня хороши и полезны, потому что у меня API и всё такое и я открыт для странных сканеров. В каком случае бот плохой, а в каком хороший?

Капчу можно и нужно показывать, когда есть 99.9% уверенность, в том, что агент пользователя — нежелательный для конкретного сервиса. В этом случае вы повысите конверсию для неизбежных false-positive.

Статья пробивает дно безапелляционными заявлениями и непониманием комплексности задачи защиты от атак, учитесь защищать у ddos-guard.
Зато капча — один из способов хоть как-то усложнить жизнь «биороботам», которым достаточно легонько наступить на любимую мозоль, чтобы они начали усиленно гадить на вашем сайте. Без капчи им это делать будет легко и удобно.
А как роботы рекаптчу научились ломать?
Подчинили людей и заставляют её решать. ;)
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.