Pull to refresh

Comments 76

Главное, чтобы это не стало инструментом «чёрной» конкурентной борьбы.
Я думаю, что накрутку очень легко будет отслеживать.
Как? Ваши предложения.
Допустим у меня ботнет, и хомячки рендомным образом сами того не подозревая удаляют из выдачи какой-то неугодный мне сайт по просьбе его щедрого конкурента.
«Расширение будет посылать в Google информацию о заблокированных сайтах, а Google будет изучать полученную информацию и использовать её в качестве одного из критериев для общей фильтрации поисковой выдачи.»
Я это уже в топике прочитал. Вы что-то этим хотите сказать? Так скажите прямо.
Что до выделенного текста, то мне кажется, что любому ёжику очевидно, что этот критерий не станет сразу единственным для ранжирования. =) А вот выделив слова «будет изучать» мне вообще не ясно, что вы хотели этим сказать.
То и хотел — Гугол перед баном будет изучать присланное. Возможно, ручная модерация. Возможно, углубленный анализ по каким-то критериям. Т.е. юзер только помечает то, на что следует обратить внимание (и, естественно, убирает у себя), а Гугол рассматривает и принимает финальное решение.

Думаю, слова «ботнет» и пр. Гуголу знакомы.
Когда я задал вопрос «Как?», я никак не недеялся услышат в ответ: «Возможно, углубленный анализ по каким-то критериям.» Может быть у Вас есть более конкретные предположения. Про ручную модерацию — это сильно. Сейчас вполне возможно, что так и есть, но если инструмент приживётся, то он будет иметь очень высокую попопулярность и обрабатывать его результы вручную будет просто невозможно. Конечно, будут применяться различные «умные» критерии. Уверен, что если в течении одного часа или даже дня вдруг бабахнет тысячи или даже сотни тысяч сигналов, то это не сработает. Другой вопрос, если сигналы будут поступать с интенсивностью схожей на настоющую интенсивность удалений действительно недобросовестных сайтов, то тут уже должно всё работать.

Я вот предполагаю такой способ борьбы с недобросовестной конкуренцией. В момент или даже перед общегугловской фильтрацией какого либо сайта, автоматически на емейл владельца домена будет поступать письмо с информированием об этом, где будет указан емейл для высылания своих объяснительных. И вот уже обработка объяснительных может делаться вручную.
Вы, в общем-то, сами ответили на свой вопрос.

Единственное, я бы не стал преуменьшать возможности ручной модерации — определить «плохой» сайт весьма просто, один человек сможет банить сотни таких сайтов ежедневно.

Что касается автоматического анализа, то, на мой взгляд, он будет целевой, например, псевдопоисковикам можно скармливать бессмысленные фразы, группы помоек вычислять по ссылкам, общему шаблону и т.д.

Конечно, стоит вопрос ресурсов на всё это. Я вижу в такой фильтрации очередную и ожидаемую ступень эволюции поисковиков, поэтому верю в то, у Гугола ресурсов хватит.

Как оно будет на самом деле — вопрос к Гуголу, если, конечно, он захочет делиться такой информацией.
А я и не стал «преуменьшать возможности ручной модерации». =) Я только намекаю на её дороговизну. Простите, но сотни сайтов в день — это маловато. А самое главное стоит ли они того. Стоимость автоматизированнного создания недобросовесностного сайта значительно ниже, чем стоимость его удаления вручную. Кто будет из свого кармана это оплачивать?
Нет задачи вычистить весь интернет. Топа достаточно.
А оплачивать, как это уже заведено, будут рекламодатели.
А Вы думаете для чего в гугл нанимает столько новых рабочих? =)
Мне кажется у Гугла есть много наработанных методик для частотного анализа, поднаторели со скликиванием adwords.
Ктобы сомневался. Но те кто занимается «скликиванием» ведь тоже много опыта набрали и тоже поднаторлели. Системы защиты и системы нападения/взлома всегда развиваются параллельно. Это всегда нужно учитывать и поэтому никогда не стоит расслабляться.
Хорошо, что сейчас это плагин и он только под хром. Уверен, что в ботнете процент пользователей, пользующихся хромом мал, т.е. в адварных целых его не поюзаешь и как ДДОС не сможешь использовать. Если Google все правильно сделает и закроет глаза на то, что удаляют пользователи (а это логично), то плагин будет очень полезным для рядовых пользователей.
От реализации зависит. Если достаточно всего один пакетик послать, то и хром с плагином не нужен, чтобы это сделать.

Ну вот Вы думаете, что правильно — это закрывать глаза на эти действия пользователей, а я думаю, что действительно неплохо бы удалять из общей выдачи хлам, основываясь на мнении большого количества людей.

Вот такой я наивный и хочу сделать мир лучше. Поэтому получая спам, я всегда жму кнопочку спам, а потом удалить, а не просто удалить. Я надеюсь на то, что это поможет сделать так, чтобы другие этот же спам не получили. А если так будут делать другие, то и я буду получать значительно меньше спама.
получая спам, я всегда жму кнопочку спам, а потом удалить, а не просто удалить
Благодаря гуглу у вас есть замечательная возможность сэкономить ресурс кнопок мыши и совместить эти действия в одно ;)
Суть не в том, сколько кнопочек я жму, а в том, какие. Причём тут Гугл? Я говорил не только про мыло, а я говорил в общем. Это касается и соощений в различных соцсетях, форумах, блогах и др.
При том что в гуглопочте, а также на всех остальных адекватных сайтах, кнопка «спам» удаляет сообщение.
Нет. Не удаляет, а переносит в папку «Спам».

Я ещё раз повторю, что мы не обсуждаем тут количество нажатых кнопок. А то какие кнопки нажимать, и какой из этого вытекает результат.
Непосредственная связь между этими вещами:
1. Если кнопка «спам» не удаляет письмо, то у юзера 2 варианта: нажать «удалить» или нажать «спам», потом «удалить».
2. Если удаляет, то нажать «удалить» или нажать «спам».

Разница в усилиях в первом варианте двухкратная, в первом никакой. Разница в результате в обоих вариантах маленькая, но есть: если спамфильтр тренировать, то есть шанс, что в будущем будет проходить меньше спама.

В итоге получаем, что нормальному юзеру выгоднее всего в первом случае нажимать «удалить», а во-втором — «спам».
Есть ещё как минимум третий вариант: я читаю почту с помощью TheBAT и для удаления жму Shift+Del, а для того, чтобы пометь как спам, мне нужно зайти на www.gmail.com, поставить галочку на против письма, нажать кнопку спам, а потом ещё когда-нибудь удалить его ещё и из папки Спам. О возможности такой разнице Вы видать даже и не предполагали, но тем не менее я не «нормальный юзер».
Я собственно об этом и написал в самом первом комментарии: пользуйтесь веб-интерфейсом, не придется выбирать.

потом ещё когда-нибудь удалить его ещё и из папки Спам
а вот это точно лишняя операция
С чего это Вы решили, что знаете, что для меня лучше?!
Я лучше сотню писем прочитаю удобно и одно неудобно помечу спамом, чем наоборот. =)
P.S. Очищать папку спам — это не лишняя операция. Я в спаме бывает нахожу нужные письма, а вот просматривать одно и тоже — это потеря времени.
Спор ни о чем. Продолжайте создавать себе трудности и с гордостью их преодолевать.

ПС пользуйтесь IMAP
Ну и не надо было Вам его начинать.
Я так вообще не люблю споры. Я дискутирую.
P.S. IMAP добавит в TheBAT кнопочку «Спам»?
Да, кнопочка будет называться «перетащить пиьсмо в папку Спам»
Спасибо. На досуге проверю, как это работает.
Немного повторюсь, большое количество пользователей — это может быть ботнет. Умный ботнет. С поведением как у настоящих людей. И с помощью такого ботнета можно легко убить конкурентов в выдаче Google по высокочастотным ключевым словам.
Я не понял, зачем Вы повторились. МОжет быть тогда хотя бы поподробнее расскажете, как это так легко делается?
Так это же только из собственной выдачи удалит. Какая конкурентная борьба?
p.s. Наконец-то я избавлюсь от experts-exchange!
Цитата: «Расширение будет посылать в Google информацию о заблокированных сайтах, а Google будет изучать полученную информацию и использовать её в качестве одного из критериев для общей фильтрации поисковой выдачи.»

Если таких удалений будет достаточно много для одного ресурса, то гугл запросто может выкинуть этот сайт из выдачи, как спамовый.
Вручную всю фигню по одному сайту блокировать задолбаешься — поэтому наверняка будут создавать базы контентных ферм, чтобы можно было воспользоваться чужой базой и прибить всех разом (собственно, как с adblock). И вот в популярные базы некоторые наверняка будут пытаться добавить конкурентов.
И иконка не очень удачная — сильно похоже на AdBlock, люди путаться будут.
Да лучше бы её совсем отключаемой, она ж и нужна только при гуглении.
Она в принципе не нужна, ее функциональность надо в «настройки» запихнуть
Уже предвкушаю слоганы: «поисковое задвижение», «понижение рейтинга сайта»…
Сеота уже приготовилась минусить неугодные сайты.
Хороший пример социально-саморегулирующейся-системы — карма на Хабре.
Всегда найдется мудак умник, минусящий от фанаря
Очень последовательно: сначала убираем SearchWiki, а потом выпускаем расширение, которое делает то же самое.
И тысячи хомячков-линуксоведов будут спускать сервера Гейтса,
Хомячки-виндузятники валить эплсторе.
И начнется первая хомячковая война холиваров.
Вот я щас магазины грохну! >:-) Мало того, что купить книгу просят, так ещё и «нету на складе». А ещё хуже когда гейт на магазин — выходные данные и на этом конец.
Хочу такой же плагин для Firefox: по работе приходится нередко искать весьма специфичные вещи, есть ряд особо назойливых сайтов, гадящих выдачу.
Ищешь редкую вещь, видишь результат с более-менее подходящим описанием. Заходишь, а на сайте на самом деле просто ведётся лог всех запросов, на странице оказывается текст «Блаблабла не найдено, также у нас искали Блабл4бл4 и 6л46л46л4».
optimizegoogle\options\filter\*fullreleases*
*ozon.ru*
*fantlab.ru*
*bookshunt.ru*
и так далее.

1)нет централизованного сервера, коллекционирующего критику
2)выдача не стирается, а заGREYеватся.

но это лучшее, что нашёл по данному вопросу.
Э… А что вы имеете против fantlab.ru? Очень полезный сайт и комментарии практически все адекватные.
А я не ищу комментарии.
И 90% искомых книг там нету, а есть только ссылки на магазины.
Там вообще нет книг, это сайт с библиографиями и комментариями.
В том и суть, что он влазит в выдачу и портит поиск книг.

Зачастую не по разу (их несколько там страниц — с обложкой, с аннотацией, с листом автора, с комментами и ещё фиг знает с чем)

Библиографию завсегда проще найти хоть бы даже в педивикии.
вот такие сайты больше всего хочется прибить)
и вот такие еще… Ищешь, например, «поисковый запрос». На первом или втором месте — «Лана подошла к Аните и медленно засунула в нее поисковый запрос»… К счастью, таких сейчас стало заменто меньше)
Стало даже интересно, какие это вы поисковые запросы запрашиваете что попадаете на такую выдачу :)
Rule 34 и Правило Макмахона. Человек даже не виноват — всё сделали до него и за него.
UFO just landed and posted this here
А удаление из выдачи идет обычным вытаскиванием элемента из DOM или там какой-то Google earch API используется?
из DOM — где результат выдернут, просто меньше результатов на странице. Если б было реализовано на уровне поисковика — на кол-во результатов на странице не влияло бы.

Автор расширения Matt Cutts (head of the webspam team at Google) пишет на ycombinator, что они присматриваются к внедрению этого как стандартной возможности поиска.
Кстати, вопрос к сеошникам — считается ли клоакингом выдача поисковому роботу контента сайта, доступного только зарегистрированным пользователям? Пример: demiart.ru — в выдаче часто ссылки на форум, который нельзя читать без регистрации, который тем не менее индексируется ботами — подмена налицо.
Или вот тот же мерзкий experts-exchange.com (там вообще, кстати, реальные люди отвечают или это агрегатор?). Для таких сайтов очень бы не помешала кнопочка «Убрать из выдачи и забанить!»
А у гугла есть какая-то приблуда, которая предоставляет боту возможность по желанию администратора показывать закрытые разделы. Вполне официальная штука.
Есть. Там надо указать адрес страницы с формой для входа и логин, пароль для входа бота на сайт.
На expert-sexchange между прочим иногда полезные ответы бывают. Редко конечно, но все же.
нельзя читать без регистрации, который тем не менее индексируется ботами

Если очень хочется, то всегда можно посмотреть «сохраненную копию».
Я все ждал когда это произойдет. Неужели такая сложная мысль, чтобы понадобилось столько лет для реализации ручной модерации силами пользователей.
Уж лучше через открытый каталог с жесткой модерацией, чем вот так.
Конечно напрямую эти данные применять нельзя. Все-таки какой-то анализ должен происходить. Но с другой стороны не так уж сложно обнаружить, что какой-то сайт вдруг стал очень часто отмечаться как «плохой». Т.е. если гугл постоянно учиться отделять купленные ссылки от естественных, то должен научиться грамотно использовать человеческий ресурс.
Но вообще идея была немного другая. Не отдавать гуглу возможность разбираться, какой сайт действительно людям не нравится, а сделать сервис, где используются «рекомендации» «друзей». Т.е. список пользователей, которым вы доверяете будет использоваться как фильтр. Доверие тоже можно сделать по-разному: 1. просто «зафрендить»; 2. автоматически искать пользователей, которые убирают сайты какие убрали вы; 3. использовать фильтр «по интересам», который тоже может быть автоматическим (на основе того, что вы искали) или с вручную прописанными тегами.
И так далее. Можно бесконечно развивать эту идею.
Социальный поиск? интересно, на самом деле. Еще бы к Firefox такую приблуду.
Если реализовать такой сервис, то плагин для браузеров будет наверное самой простой частью :)
Хотя, как мне кажется, можно сделать достаточно просто. Только мощности нужны большие. А супер-сложные алгоритмы не обязательны. Конечно, если это будет поверх существующих поисковиков накладываться, а не полностью собственный поиск.
добавите в друзья какую нибудь девочку блондинку, а у нее в блоклисте все непонятные сайты научной/компьютерной тематики.
UFO just landed and posted this here
Гугл признается, что сам уже не может гарантировать качественную выдачу. Надежда на пользователей.
Очень рад этому расширению. Можно убрать из выдачи этот дурацкий expert-exchange…
Есть подобный плагин для мозилы — яндекса? Достаточно просто вырезать саму ссылку+её текст из страницы.
Результаты гугла фильтровать все равно бесполезно (для русскоязычных запросов, естественно).

По теме — очень удобный плагин.
Навскидку могу вспомнить пару сайтов, которые заблокировал бы… (мечтательно)

А ещё лучше — база таких сайтов. Как в AdBlock'e.
Ничего не мешает Гуглу сделать этакую контрольную группу из существующий пользователей Хрома + этого плагина и по ним понижать фармерские сайты в рейтинге (в стиле фокус групп телезрителей которые не знали что они участвуют). По крайней мере на первых порах оградит от сеоты.
UFO just landed and posted this here
Sign up to leave a comment.

Articles

Change theme settings