Pull to refresh

Comments 31

У меня пишет
Ошибка!
Только владельцы сайтов могут получить доступ к этой функции.

С правами все в порядке. Руки кривые или у вех так?
Только что проверил. Все работает.
Это ж Гугл, у него к каждому юзеру индивидуальный подход…
Костыль, конечно. Связанный с несовершенной системой ранжирования. Но костыль нужный, потому как пока удачную независимую систему ранжирования построить не получается даже гуглу.


Извиняюсь конечно, но откуда брать эти самые «плохие» внешней ссылки? Как отличать «плохие» они или «хорошие»?
Вот здесь написано.
Отклонение обратных ссылок
Эту функцию нужно использовать осмотрительно, поскольку результат может негативно повлиять на эффективность вашего сайта в результатах поиска Google. Мы рекомендуем отклонять обратные ссылки только в том случае, если вы уверены, что они действительно являются искусственными или расположены на сайтах, распространяющих спам, и вредят вашему сайту. Чаще всего алгоритмы Google могут самостоятельно распознать ненадежные ссылки, поэтому владельцам большинства сайтов не нужно использовать этот инструмент.
Их берут на специализированных сервисах (соломон, ахреф) или при помощи сеошных прог (семонитор, язл и т.п.), кроме того они есть в вебмастере, и наверное, в самом инструменте (не смотрел ещё). Плохие от хороших отличить достаточно просто, если занимаешся сео. Если нет — то эту функцию лучше и не использовать, можно сильно не угадать.
Статья в оригинале начинается с того, что Google будет слать сообщения веб-мастерам владельцам сайтов, на которые по мнению гугла стоят «плохие» ссылки.
ну и список всех ссылок на сайт там же в интерфейсе веб-мастера «Трафик > Ссылки на ваш сайт > Наиболее часто ссылаются > Дополнительно»
Тогда в чем прикол? Сами не могут сразу не учитывать эти ссылки?

По-моему это как то даже глупо… Любой владелец ресурса получивший такое уведомление пойдет в панель управления и заблокирует указанные ссылки.
Нет, в панели там все вобще ссылки. Задача владельца сайта — выбрать из них «плохие».
but be sure you don’t upload the entire list of links to your site — you don’t want to disavow all your links!
Сначала нужно понять влияние каждой ссылки на выдачу сайта. А то стрельнёшь в «спамовую» ссылку, а окажется что она давала самый большой эффект ранжирования.
До этого сам Каттс авторитетно заявлял, что никакие внешние факторы не могут привести к понижению сайта в выдаче.
Они могут сильно замедлить рост. Иногда у «застывших» сайтов сносят все покупные ссылки и покупают новые. Кроме того, одни и те же действия в разной последовательности обычно приводят к совершенно разным результатам. Так что возможно он сказал правду. Возможно… =)
UFO just landed and posted this here
UFO just landed and posted this here
А мне другой момент нравится. Вебмастерам предлагают заняться работой поисковой системы по поиску некачественных внешних ссылок. Это экономия на вычислительных мощностях и на работе по совершенствованию алгоритмов?
У поисковика и владельца сайта — разные критерии качества.
UFO just landed and posted this here
Партия жуликов и воров одобряет.
Гм… взлом гугл-аккаунта владельца сайта становится всё более и более вкусным… С помощью этой тулзы можно ведь обнулить рейтинг. Там нет ограничений на количество удаляемых ссылок?
На Нигме, помнится, была кампания борьбы со спамовыми ссылками — авторизованному пользователю можно было нажать кнопку «это спам» в результатах выдачи.

Такой способ не более эффективен?

Для отсеивания умышленного занижения рейтинга конкурентами можно сделать «индекс доверия» сообщившего о спаме пользователя.

Наверное, единственный минус такой системы — ручная проверка результатов, поскольку любую автоматику, скорее всего, можно обмануть.
По-моему Google в этом случае пошёл навстречу SEOшникам, которые закупились низкокачественными ссылками и потом их сайты были пессимизированы обновлением алгоритма «Penguin». Многие из них не смогли избавиться от этих ссылок, из-за чего остались на низких позициях, поэтому Google предложил такой инструмент.
К сожалению, вчера я немного опоздал на презентацию Disavow links на PubCon (Matt Cutts выступал во время перерыва на обед).
Если я все правильно понял с выступление, Google будет понижать рейтинги сайта с «плохими» входящими ссылками.
Год назад на PubCon он говорил, что «плохие» ссылки просто не будут учитываться.
UFO just landed and posted this here
Bing же (и упомянутая выше Нигма) гораздо менее интересны :)
А сколько обычно длится переиндексация? :)
Думаю так написали потому что гугл хоть и обновляет непрерывно свою базу данных кусочек за кусочком, но на обновление всей базы уходит несколько недель.
Sign up to leave a comment.

Articles