Оптимизация сайта – часть 2
В первой части мы поговорили о вещах, способных увеличить видимость Вашего сайта в поисковой выдаче Яндекса за счёт правильной и логичной организации кода и т.д.
В данной части мы продолжим разбор основных вещей, которые может сделать каждый веб-мастер, желающий нормальной и бесперебойной индексации своего сайта.
Отсутствие дублей
Что такое дубль? Это один документ или текст, доступный по нескольким адресам. В настоящий момент Яндекс активно решает данные проблемы и умеет самостоятельно их исправлять по мере своих возможностей.
Множество дублей постепенно удаляются Яндексом и остаются наиболее релевантные страницы по выбору поисковой системы.
Что делать? Чтобы навсегда запретить дублирование контента, надо пользоваться директивами файла ROBOTS.TXT, который буквально создан для этого.
Выбор www зеркала
При создании сайта и его индексации одной из проблем может стать ситуация попадания в индекс поисковой системы «Яндекс» одинаковых страниц с приставкой www и без неё.
Эта проблемы выходит на передней план в тот момент, когда начинает наращиваться естественная ссылочная масса – люди могут ставить сайт с приставкой WWW так и без неё.
Если не озаботиться данным вопросом заранее, то можно получить неприятные последствия, которые придется решать 301 редиректом.
Что делать? В статье про .HTACCESS мы очень подробно рассмотрели дерективы, склеивающие 301-редиректом зеркальные домены сайта.
Директива host
Yandex поддерживает директиву host файла robots.txt, которая позволяет указать главное зеркало сайта без применения директив .htaccess и сложных манипуляций.
Поскольку не все понимают правильный синтаксис файлов apache-конфигураций, то специалисты из отдела Яндекс.Вебмастера, отвечающие за обратную связь между разработчиками, добавили директиву host, которую, к слову сказать, не распознаёт Google.
Что делать? Внесите в файл robots.txt строку «Host: site.ru» без приставки «www» (важно).
Файл sitemap.xml
Очень важно указать поисковому роботу Яндекса на специальный файл «sitemap.xml», где находится полный список страниц всего сайта, сформированный в специальной разметке.
Этот служебный документ полезен для поисковых роботов тем, что содержит все ссылки в одном месте.
Что делать? Установить плагин, генерирующий карту сайта в разметке XML (если такая возможность отсутствует изначально). Так же прочитайте статью про SITEMAP.XML, если Вам интересны дополнительные подробности.