Общее количество страниц вашего сайта и количество проиндексированных страниц должны быть примерно одинаковыми. Если в индексе намного меньше страниц, чем есть на вашем сайте, это может означать следующие проблемы: ваш контент плохо оптимизирован под поисковые системы, вы случайно закрыли их от индексации, на сайт наложен фильтр.
10. Запросы, по которым сайт находится в топе: Вебмастер Яндекса или Вебмастер Гугла:
Глава 3
Выявление и устранение основных технических ошибок
11. Файл robots.txt
Robots.txt – это файл, в котором указаны параметры для индексации сайта. Необходимо, чтобы файл robots.txt был составлен правильно. Проверить это можно с помощью специального сервиса от Яндекс. Файл должен содержать несколько обязательных директив, корректно составлен и загружен в корень сайта.
12. Файл sitemap.xml
sitemap.xml – это путь для поисковых роботов для индексации сайта. Необходимо, чтобы файл sitemap.xml был составлен правильно.
В гугле лучше файл добавить вручную:
13. 301 редирект домена без www на домен с www (или наоборот).
Для поисковых систем домен с www и без www – это два абсолютно разных сайта. Для того чтобы показать им, что это один сайт, чтобы они индексировали и ранжировали его как единое целое, необходимо поставить 301 редирект с второстепенного домена на основной (SEO-оптимизаторы называют его главное зеркало).
В обоих случаях вводим то название сайта, которое считаем главным. Чтобы определить, какую версию сайта (с www или без www) поисковая система считает главной, вбейте в строку поиска «site: домен вашего сайта с www и без www» и посмотрите, где больше проиндексировано страниц:
В случае, если поисковые системы считают главными разные версии сайта, необходимо посмотреть, откуда идет больше трафика и выбрать ту, которая более важна для продвижения вашего бизнеса.
P.S. После настройки редиректа не забудьте прописать директиву в файл robots.txt. Host: www.site.ru (с www или без www соответственно).
14. Постановка на сайт протокола https://.
Google и Yandex с 1 января 2017 года увеличат вес наличия протокола HTTPS в своих формулах ранжирования. Делается это поисковыми системами для улучшения безопасности пользователей. Как при электронных расчетах в Интернете, так и для тех, кто просто переходит на сайты.
HTTPS – это сетевой протокол, обеспечивающий безопасную передачу информации между сервером и персональным компьютером пользователя.