C www и без
Для поискового робота страницы www.site.ru/krot.html,
site.ru/krot.html и site.ru/krot.html/ и так далее – разные. Но при
создании сайта и добавлении страниц очень многие об этом забывают. Если
робот поисковой системы увидит на сайте кучу дублей, то есть одинаковых
страниц, отличающихся только URL (адресом), то он будет их склеивать –
то есть объединять, выбирая основную страницу, которая останется в
индексе. И если эту склейку не направлять, она может стать произвольной –
в индексе будут страницы с www и без, с закрывающими слэшами и без.
Во-первых, это немного уменьшает доверие поисковика к сайту, во-вторых –
может вызвать потери ссылочного веса: вы купили ссылки на www.site.ru/krot.html, а в индексе оказалась страница без www.
Указать главное зеркало в «Яндекс.Вебмастере» («Настройка индексирования → Главное зеркало»).
Настроить редирект с кодом 301
со всех дублей на страницы, которые должны остаться в индексе. Редирект
настраивается либо с помощью CMS (системы управления контентом), либо в
служебных файлах веб-сервера (если это Apache, то работать нужно с
файлом .htacess).
Мусор в индексе
Нужно запрещать роботам поисковиков индексировать страницы с
результатами поиска по вашему сайту, гостевую книгу, корзину и все
остальное, что не является страницами с полезным контентом, которые
должны попасть в выдачи «Яндекса» и Google.
Запретить индексацию служебных, приватных и пустых страниц с помощью директивы Disallow в robots.txt. Важно проверить, что при этом все нужные страницы разрешены для индексации.
Одинаковые Title (тайтлы, заголовки страниц)
Многие CMS генерируют одинаковые и неоптимальные заголовки страниц, что
может привести к неправильной склейке или даже исключению из индекса.
Неправильные тайтлы многие прописывают и «руками», поскольку считают
придумывание разных заголовков слишком муторным занятием. Также Title
часто используются поисковиками при составлении сниппетов, поэтому их
качество прямо влияет на кликабельность и количество посетителей.
Title всех страниц должны быть разными.
В начале каждого заголовка нужно употребить ключевые слова, по
которым продвигается страница – но не перечислением, а правильной
фразой.
Даже на самом «Яндексе» в тайтлах сначала идет описание страницы, а
потом (и не всегда, чаще на старых страницах) – название сайта.
Название сайта лучше либо совсем не писать в тайтле, либо вставлять его в
самом конце, отделяя с помощью тире.
Спам-контент и исходящие ссылки
На многих сайтах до сих пор встречаются огромные переоптимизированные
«простыни», скрытые или написанные очень мелким шрифтом тексты,
несколько заголовков H1 на страницах, перечисления ключевых слов через
запятую – все это в конце 2011-го уже неприемлемо. Тексты должны быть
интересными, тематическими и содержать ключевые слова в читабельной и
логичной пропорции. Страницы необходимо делать для людей, так как
поисковые системы стали намного более «человечными». Еще одна
распространенная ошибка – попытки торговать ссылками и одновременно
продвигать сайт в ТОП.
Убрать «линкопомойки», разделы для обмена ссылками и линкфармы.
Убрать «продажные статьи».
Неуникальный контент
Чтобы сайт стал лидером поисковой выдачи, контент его страниц должен
быть уникальным. Это правило практически не допускает исключений.
Если вы заимствовали тексты, напишите свои.
Если вы писали тексты сами, проверьте, не украли ли их – поможет сервис http://www.copyscape.com.
Все новые тексты перед добавлением на сайт обязательно скармливайте
«Яндекс.Вебмастеру» для закрепления права первоисточника («Содержимое
сайта → Оригинальные тексты»).
Под фильтром?..
Если сайт попал под один из фильтров поисковой системы (у «Яндекса» чаще
всего срабатывают «АГС», «Ты последний» и аффилиат-фильтр), нужно
приложить все усилия для «очистки кармы» сайта.
Как вы можете убедиться, для устранения перечисленных выше
недостатков не требуются большие деньги или десятки часов времени. А вот
сэкономить деньги и время вполне даже можно. Устраните ошибки на сайте!