Выявление и устранение основных технических ошибок



Файл robots.txt

Robots.txt — это файл, в котором указаны параметры для индексации сайта. Необходимо, чтобы файл robots.txt был составлен правильно. Проверить это можно с помощью специального сервиса от Яндекс. Файл должен содержать несколько обязательных директив, корректно составлен и загружен в корень сайта.

XML-карта сайта

С помощью sitemap.xml мы сообщаем поисковой системе о том, какие страницы вашего ресурса необходимо проиндексировать и как часто они обновляются.

Редирект домена без www на домен с www (или наоборот)

Для поисковых систем домен с www и без www – это два абсолютно разных сайта. Для того чтобы показать им, что это один сайт, чтобы они индексировали и ранжировали его как единое целое, необходимо поставить 301 редирект с второстепенного домена на основной (SEO-оптимизаторы называют его главное зеркало). Как это сделать?

«Яндекс». Заходим в «Яндекс.Вебмастер», нажимаем на кнопку «Перейти», а затем на кнопку с плюсиком:

«Яндекс.Вебмастер» – Добавить новый сайт

Google. Заходим в Google для вебмастеров и нажимаем на кнопку «Добавить ресурс»:

 

 

Google для вебмастеров – «Добавить ресурс»

В обоих случаях вводим то название сайта, которое считаем главным. Чтобы определить, какую версию сайта (с www или без www) поисковая система считает главной, вбейте в строку поиска «site:домен вашего сайта с www и без www» и посмотрите, где больше проиндексировано страниц:

Более 9 миллионов результатов в выдаче, значит, Google считает главным сайт с www

В случае, если поисковые системы считают главными разные версии сайта, необходимо посмотреть, откуда идет больше трафика и выбрать ту, которая более важна для продвижения вашего бизнеса.

P.S. После настройки редиректа не забудьте прописать директиву в файл robots.txt. Host: www.site.ru (с www или без www соответственно).

Главное зеркало нашего сайта

Дубли главной страницы

Дублирование ссылок на одну и ту же страницу сайта не приветствуется поисковиками. Поэтому, если у вашей главной страницы есть несколько дублей (например, http://www.site.ru/, http://www.site.ru/index.html и http://www.site.ru/index.php), от них нужно срочно избавиться. Для этого снова воспользуемся 301 редиректом. Действия точно такие же, как и в предыдущем пункте, только немного меняется код.

Код, который позволит вам избавиться от /index.php

Код, который позволит вам избавиться от /index.html

Полный список кодов для 301 редиректов в очень удобном компактном виде можно найти здесь.

Дублированный контент

Чтобы найти дублированный контент, воспользуемся бесплатной программой Xenu. Скачиваем по ссылке, устанавливаем и запускаем. После этого нажимаем File – Check URL, вбиваем домен своего сайта и жмем ОК. После того как приложение просканирует ваш сайт, выбираем сортировку по Title и смотрим, какие заголовки повторяются.

Поиск дублированного контента с помощью программы Xenu

Тег noindex

Тег noindex необходим, чтобы помочь поисковому роботу сориентироваться на конкретной странице, например, не индексировать пункты меню, данные форм и прочую служебную информацию. Данный тег понимает только «Яндекс», для Google он ничего не значит. Тем не менее, его использование немного повышает уровень доверия поисковика к сайту. Подробно о теге noindex и о том, как его использовать, можно почитать здесь.

ЧПУ (человеко-понятные урлы)

Хороший урл (не слишком длинный и состоящий из понятных и легкочитаемых слов) – это еще один фактор доверия поисковиков к сайту. Чтобы настроить ЧПУ на Wordpress или Joomla, необходимо воспользоваться специальными плагинами:

Wordpress – плагин Rus-To-Lat

Joomla – плагин JoomSEF или sh404SEF

Чтобы настроить ЧПУ на «Битриксе», необходимо выполнить следующие действия:

· Включить режим правки

· Навести на нужный компонент и нажать «Редактировать параметры компонента»

· Поставить галочку напротив пункта «Включить поддержку ЧПУ»

· Заполнить строку «Символьный код»

Скорость загрузки сайта

Быстрая скорость загрузки сайта улучшает пользовательский опыт, увеличивает коэффициент конверсии и способствует улучшению позиций сайта в выдаче. Один из лучших сервисов, с помощью которых можно узнать скорость загрузки сайта и получить рекомендации по ее увеличению, – Google PageSpeed insights.

Вредоносный код

Если ваш сайт выводится в результатах поиска с пометкой «Этот сайт может угрожать безопасности вашего компьютера», значит, на нем присутствует вредоносный код. Чтобы его удалить, необходимо следовать вот этой инструкции Яндекса.

Сообщение «Яндекса» о том, что на сайте присутствует вредоносный код

Снятие фильтров

Главная хитрость поисковых систем заключается в том, что они не спешат оповещать владельцев сайтов о наложении того или иного фильтра. Чтобы узнать, есть ли на вашем сайте санкции от «Яндекса», придется писать в техподдержку и запрашивать данную информацию. Чтобы узнать, если на вашем сайте санкции от «Гугла», необходимо зайти в «Инструменты для вебмастеров Google» – «Поисковый трафик» – «Меры, принятые вручную» (автоматические фильтры придется вычислять самостоятельно).

 

 

Меры, принятые «Гуглом» вручную, можно посмотреть в панели вебмастера

Снятие фильтров – это отдельная и очень большая тема для обсуждения. В данном материале останавливаться на ней не будем. Приведем лишь несколько хороших статей на эту тему:

· Какие бывают фильтры поисковых систем: чек-лист для диагностики санкций «Яндекса» и Google

· Фильтр аффилиатов в вопросах и ответах

· Существует ли фильтр «Песочница» (Sandbox) на самом деле?

· Что делать, если вы подозреваете санкции поисковых систем

· Кейс: вывод сайта из-под фильтра «Пингвин»

· Кейс: снятие с «ссылочной иглы» и увеличение поискового трафика


Дата добавления: 2019-09-13; просмотров: 296; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!