Как стать автором
Обновить

Комментарии 32

Про правила вывода основного текста страниц не сказали.
Очень важно заголовок основного текста оформлять тегами заголовка (лучше — H1), а его содержание должно соответствовать (полностью или частично) содержанию тега TITLE страницы. Так поисковые системы лучше будут «понимать» где основная смысловая часть документа.
Согласен, важно. Про это писали в первой части статьи. habrahabr.ru/blogs/webdev/119686/
Во-первых там это есть вроде бы только в комментариях. Во-вторых тут ведь речь о технологических аспектах, а описанная связка — вопрос вёрстки и способа вывода информации CMS.
У нас был такой случай, когда сайт клиента при прочих замечательных условиях постоянно неправильно индексировался, а всё из-за того, что вывод заголовков был размечен в шаблоне CMS в тег DIV и оформлен CSS как заголовок, кроме того TITLE страницы в большинстве случаев не был напрямую связан с заголовком, в результате — каша в индексе.
Добавил бы микроформаты, валидность HTML и CSS, валидность WAI.
НЛО прилетело и опубликовало эту надпись здесь
Да и вообще статья только чтобы в нее ссылки пихнуть. Удача таких студий только в том что народ еще пока не понимает важность качественного сайта. Нельзя сделать нормальный проект за 5 дней и 12000рублей. Это лирика.

По делу: скорость загрузки сайта — попробуйте для начала объединять и минимизировать скрипты js на ваших сайтах. И если вы подключаете jquery, зачем используете конструкции вида document.getElementById().innerHTML=this.response;? Оптимизация картинок?

Для того чтобы хорошо сверстать макет для поисковиков надо 4 инструмента: YSlow, PageSpeed, Анализатор контента (например, pr-cy.ru/analysis_content ), Web Developer (я использую для Mozilla) — чекать валидность.
Кто-то когда-то хорошо сказал: «Лучший валидатор — это браузер». Даешь 100%-ую валидность — смешно. Посмотрите на большие и интересные проекты, они проходят 100% валидацию? Использование браузерных хаков при верстке исключает понятие валидности. Что касается валидности HTML, то грубые ошибки и ошибки приводящие к разной трактовке кода разными браузерами очевидно должы быть исправлены и вопрос о них не ставится.

Нельзя сделать нормальный проект за 5 дней и 12000рублей — если читать сайт внимательно, то можно получить представление о том, что никто и не делает сайт за 5 дней с нуля, это шаблонное решение с быстроподкючаемым дизайном к шаблонной верстке с помощью внутреннего инструментария.

document.getElementById().innerHTML=this.response — ну это наша проблема, избыточность библиотек. Старый код постепенно вычищиется — в сборке на которой собираются сайты сейчас этого добра на порядок меньше (в портфолио эти сайты пока не вывесили).
Это не статья, а какой-то феерический пипец. То есть местами есть какие-то фразы, похожие на правду, но вместе из них получается комок слипшегося спагетти, описывающий какую-то другую реальность.
Автор, вы не пробовали, прежде чем что-то писать, проверить свои утверждения хотя бы банальным поиском? Ну, вот например, про robots.txt. Ну совсем же все не так, как вы пишете! Вот, например, вы упоминаете Disallow внезапно как средство от дублируемого контента. Хотя для этого используются Clean-param и Canonical URL, о которых вы вообще, похоже, не знаете, — это если про robots.txt, а также мета индекс на странице.
И так со всеми разделами статьи. Какие еще META Keywords? Ау, каменный век давно закончился! Или про разметку — ну плевали поисковики на html код, равно как и посетители, ну разве что кроме тегов заголовков и b/i. Стиль верстки — исключительно дело вкуса верстальщика и внутренних стандартов студии.
Или вот нормальные урлы (ЧПУ) — они нужны не для поисковиков, которым пофиг, а для юзеров и программистов, ну еще для того чтобы в серпе подсвечивалось жирненьким… Но на ранжирование их влияние близко к нулю.
Короче, если кто из новичков вдруг прочел эту статью — не верьте ни единому слову. Всё сказки и провокация, не выдерживающая простейшей проверки.
Коллега, вы зря так горячитесь. То, про что мы пишем, мы знаем очень хорошо и опробовали на многих проектах. Это то, что реально работает. Не сомневаюсь, что есть более красивые способы реализации тех или иных пунктов, но мы рассказываем про свой положительный опыт и не претендуем на 100% правду. Расскажите про robots.txt так как видите это вы, вместо того что бы писать такие длинные комментарии.
Да! Про каноникал я все пытаюсь внушение сделать, например, тут: habrahabr.ru/qa/7967/
Как утверждают специалисты, каноникал — это второй по важности SEO инструмент после сайтмепов. Я в этом убедился на примере портала с 14.000.000 страниц. Приведу еще раз ссылки, для почитать:
googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html
www.seomoz.org/blog/canonical-url-tag-the-most-important-advancement-in-seo-practices-since-sitemaps
Еще нужно добавить отправку в поисковики сайтмапов автоматически, при появлении изменений на сайте, проверку можно навесить на время, например, каждый час:

www.google.com/webmasters/sitemaps/ping?sitemap=http%3A//domain-name.com/sitemap.xml
webmaster.yandex.ru/wmconsole/sitemap_list.xml?host=http%3A//domain-name.com/sitemap.xml
www.bing.com/webmaster/ping.aspx?siteMap=http%3A//domain-name.com/sitemap.xml
search.yahooapis.com/SiteExplorerService/V1/updateNotification?appid=YahooDemo&url=http%3A//domain-name.com/sitemap.xml
submissions.ask.com/ping?sitemap=http%3A//domain-name.com/sitemap.xml

Это очень хорошо работает для новостных сайтов и ресурсов, где постоянно идет добавление контента, генерируемого пользователями.
НЛО прилетело и опубликовало эту надпись здесь
www.google.com.ua/search?hl=ru&source=hp&aq=1&aqi=g10&aql=&oq=a&gs_rfai=&q=nokia+N95

Присмотритесь как гугл выделяет ключи в ссылках. ЧПУ однозначно полезный инструмент именно из-за того, что можно ключи в урл пихать.
Та и чисто для людей — намного приятней.
А что вы думаете про ЧПУ кириллицей? По-моему, прикольно смотрелось бы, особенно для РФ доменов:
магазин.рф/каталог/холодильники/
Как вообще поисковики относятся к русским урлам и доменам.РФ?
У нас был проект, где использовались такие ЧПУ, правда домен был всё же латинский. Поисковики совершенно нормально относились к этому, не хуже чем к латинским ЧПУ.
К ЧПУ кириллицей плохо относятся старые браузеры. Хотя википедия вон использует — и ничего.
К доменам корилицей действительно плохо относятся, а вот пути кририлицей — это очень хорошо работает.
НЛО прилетело и опубликовало эту надпись здесь
Почему в первом исходнике не «site.ru», а во всех остальных «site.ru»?
Спасибо КЭП. А что полезного есть в этой статье, чего нету в любом учебники для Dummies?

diff в студию пожалуйста.
Легенды и мифы SEO на Хабре!
Хватит пихать свои рекламные ссылки! Никакой полезности статья не несет. Кто хочет узнать про оптимизацию, лучше прочитайте книжку Ашманова «Оптимизация и продвижение сайтов в поисковых системах».
Читал, честно говоря — не очень понравилась. Уж слишком много воды. Я понимаю, что это книга, а не сборник советов, но все же. Та и пока на практике не попробуешь, пока собственным потом не добьешься — толку мало будет.
Похоже на краткое изложение — help.yandex.ru/webmaster/

На хабре хочется читать умную аналитику, а не перечисление очевидных или сомнительных фактов.

Вы так безапелляционно пишете, что верстать надо только div'aми. А где подтверждение? Яндекс писал об этом?
Вот если бы вы написали, что провели эксперимент — сделали ХХ сайтов, с разными вариантами верстки и одинаковыми прочими условиями и в результате увидели, что такой-то процент сайтов с такой-то версткой ранжируется лучше, то это было бы интереснее и полезней.

Да и в существующей статье можно деталей добавить. Вот вы пишете про:
Также необходимо исключить попадание в поисковый индекс синонимов главной страницы (www.site.ru/index.php и других подобных)
По опыту, это не спасает от попадания в индекс страниц вида: www.site.ru/index.php, www.site.ru/index.htm
И в роботс их тоже желательно закрывать от индексации:
Disallow: /index.php
Disallow: /index.htm

А еще могут дубликаты страниц, содержащие GET-переменные попадать в индекс.
И т.д.

Поддержу.
«жи ши — пиши с и»…
Зачем переписывать прописные истины, которые указаны в webmaster-е любого поисковика? :(

Вся вода тут налита только, чтобы втоптать свою ссылку с web-canape?
Я конечно все понимаю, оптимизация там, и все такое, но зачем красоту предпочитать юзаблити? Я хочу кликать по ссылке емеила и сразу писать письмо, а не перепечатывать емеил руками. Если не хотите подключать шрифт на страницу, то хотя бы сделали изображение кликабельным. Хотя неизменяемые контакты на сайте — это вообще моветон.
это от спама защита и экономия на одной лишней мейл-форме
Там внизу продублированы контакты и можно нормально кликнуть по почте

Но вообще бред, да
И, наконец, все счетчики необходимо обносить тегами NOINDEX, которые будут запрещать к индексированию данные фрагменты HTML-кода.

Яндекс бот давно прекрасно понимает атрибут: rel="nofollow", отсюда использование тэгов noindex в коде теряет смысл
Безусловно, статья полезная, вещи корректно описаны претендуя на чёткость и правильность. Кто-то посчитает нужным и занесёт её к себе в избранное. Good job! От себя добавлю немного критики.

На практике же всё не настолько идеально. Одним проектам это подойдёт, другим будет противопоказано. Прямо как в медицине.

ЗЫ: Если уж бороться за корректность, то поправьте в иллюстрации к статье эту анти-семантику:

h1--h2--h3--Супер сайт--h3--h2--h1
СМО не прошел ) так как был заказан дешевый рерайт)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий