Что делать, если сайт не индексируется в Google?

Индексация — процесс анализа сайта поисковыми роботами. Чем больше требований удовлетворяет контент и домен в целом, тем лучше к нему относятся поисковики. К рассмотрению предлагаются 8 причин, почему сайт не индексируется в Гугле.

Где посмотреть количество проиндексированных страниц?

Перед решением проблемы нужно оценить её масштаб. Основные способы узнать, сколько страниц проиндексировано:

  • Использовать оператор «site:».
  • Обратиться к онлайн-сервисам.
  • Установить браузерные плагины.
  • Скачать программу на ПК.

Самый быстрый способ — ввести в поисковую строку «site:адрес_сайта». Так можно увидеть приблизительный результат. Это примитивный метод, следующие решения предлагают не только точную статистику по страницам, но и рекомендации по устранению проблем.

Если сайт не индексируется в Google, время заглянуть в Search Console. Нужный раздел находится во вкладке «Индексирование → Страницы». Там представлен график с проблемными, исключёнными и проиндексированными страницами. За дополнительными отчётами можно обратиться к сторонним сервисам, по типу PR-CY, Raskruty, SeoLik.

Следующий не очевидный, но удобный способ — установить расширение в браузер. Наиболее популярные: RDS Bar, SEO-tools, Seo Magic, Be1. Плагины проводят технический аудит хостинга, указывают на SEO-ошибки, показывают плотность ключевых слов, историю вирусной активности и др.

Инструменты обзора индексации распространяются в виде десктопных программ. Одна из них — Netpeak Checker. За 4 клика софт выведет статус TRUE/FALSE для каждой страницы. Ещё популярна программа Screaming Frog SEO Spider, с её помощью проводят полный анализ и намечают план дальнейшей оптимизации.

8 причин плохой индексации

От опечатки до некачественной вёрстки — рассмотрим решения популярных проблем, блокирующих трафик из Google.

1. Индексация запрещена в robots.txt

От плагинов много пользы, но иногда они делают больше, чем нужно. Модификация robots.txt — неочевидная проблема, с которой сталкиваются, например, пользователи WordPress.

Файл расположен в корневом каталоге, в ответ на запрос возвращает код со статусом 200 ОК. С помощью robots.txt можно запретить индексирование контента: медиафайлов, скриптов, картинок, стилей.

Важно! Содержимое robots.txt — это рекомендации для ботов, которые они могут проигнорировать.

Для решения проблемы нужно отредактировать содержимое файла вручную, исключив из индексации только маловажные страницы. В robots.txt не должно быть косой черты. Если у параметра «Disallow» стоит значение «/», значит блокируются все страницы из корневой папки.

2. Медленный хостинг

Роботы Гугл не любят ждать: если ссылка долго грузится, они перейдут к сканированию следующей. Проблема возникает, когда страница перегружена контентом, или ресурс хостится на устаревшем сервере.

Проверить скорость загрузки можно на PageSpeed Insights. Это онлайн-инструмент от Google для определения фактической производительности сайта. По каждому пункту система выдаст рекомендации, а также обозначит «тяжёлые» элементы страницы. Результат предоставляется в виде диаграммы. Хорошим считается балл в диапазоне от 70 до 90.

3. Бесконечный цикл переадресации

Тот случай, когда опечатка приводит к проблемам с индексацией. Устраняется следующим образом:

  1. Вставить в поиск Redirect 301, чтобы найти все файлы с перенаправлением.
  2. Исправить опечатки и прервать бесконечный цикл переадресации.
  3. Если нашёлся Redirect 302, изменить его на 301.

Программа Screaming Frog поможет выявить другие ошибки. После их устранения рекомендуется повторно подать запрос на индексацию в консоли Гугла.

Важно! Следите за метатегами. По ошибке «noindex», «nofollow» устанавливают на страницах, где этого не требуется. Чтобы открыть ссылку к индексации, нужно удалить приставку «no», оставив «index», «follow».

4. Рендер средствами JavaScript

Скрипты становятся частой причиной, почему Гугл не индексирует сайт. Проблема проявляется на сайтах, использующих крипторы и обфускацию для повышения релевантности контента.

Поисковые роботы умеют распознавать маскировку и относятся к этому негативно. Google не индексирует страницы, на которых вебмастер попытался уникализировать текст программным путём, скрыл файлы JavaScript и CSS.

5. Вёрстка не адаптирована под мобильные устройства

С 2015 года у Google в приоритете мобильный индекс: контент считывается именно с мобильной версии сайта.

Есть 3 способа оптимизации вашего сайта под мобильные устройства:

  1. Выделение поддомена. Мобильная версия реализуется на другом URL с оптимизацией под Android и IOS. Элементы дизайна можно облегчить, чтобы ускорить загрузку страниц. Единственная проблема — затраты на разработку и поддержку поддомена.
  2. Динамическая подстановка контента. Сервер показывает разные версии сайта пользователям смартфонов, компьютеров и планшетов. Решение не требует отдельного URL. Затраты на разработку и поддержку не меньше, чем на реализацию отдельного поддомена.
  3. Адаптивный дизайн. Макет сайта будет подстраиваться под размер экрана. Разработка дешевле, URL остаётся прежним, но страдает скорость загрузки. Приходится упрощать функционал, чтобы сайт нормально работал на мобильных устройствах.

Обратите внимание: если динамическая подстановка или адаптивный дизайн уже используется, убедитесь, что страницы корректно отображаются на всех устройствах.

6. «Просканировано» — Google Search Console

Поисковые системы становятся всё более требовательными к содержимому сайтов. Если роботы посетили страницы, но не проиндексировали их, значит проблема в качестве контента.

Чтобы поддерживать уникальную ценность, необходимо:

  • Использовать уникальный текст: от заголовков до описаний.
  • Не копировать части текста с других источников.
  • Объединять повторяющийся контент каноническими тегами.
  • Запретить сканирование разделов, не нуждающихся в индексации.

7. «Обнаружено» — Google Search Console

Проблема возникает из-за некачественного контента или проблем со сканированием.

Первая причина, почему Гугл не индексирует страницы сайта, — Googlebot ищет шаблоны в URL. Это происходит, когда нарушена связь категорий со вложенными ссылками.

Вторая причина — лимит сканирования. В очереди много URL-адресов, расходующих краулинговый бюджет. Нужно убрать некачественные страницы из списка на сканирование. Примеры «проблемных» ссылок: результат применения фильтра по категориям, внутренний поиск.

8. «Повтор содержимого» — Google Search Console

Задача алгоритмов поисковиков — предоставлять релевантные ответы без дублей контента. Причиной дублей могут стать:

  • Тексты, доступные в переводе на английский язык США, Канады и Великобритании.
  • Использование описаний с сайта производителя, которое уже успели скопировать десятки конкурентов.

Важно! Ни один сайт с дублированным контентом не индексируется Гуглом. Чтобы дать пользователю список релевантных ссылок, алгоритмы игнорируют источники неуникальной информации.

Советы по ускорению индексации

Рекомендации от команды SpeedyIndex, чтобы привлечь поисковых роботов Яндекса и Google:

  • Не допускайте ошибки 404. Роботы могут не просканировать страницу, потому что в её URL содержится число «404» или в новой копии появились слова «недоступно», «не найдено».
  • Пользуйтесь перелинковкой. Страница заслуживает индексации, если она связана внутренними ссылками.
  • Оптимизируйте стратегию сканирования. Время анализа страницы ограничено. Чтобы Googlebot не тратил краулинговый бюджет впустую, нужно направлять на индексацию только ценные разделы домена.
  • Обновляйте контент. Боты чаще сканируют сайты владельцев, которые следят за актуальностью информации.
  • Создайте динамическую Sitemap. Если проект работает на Tilda, то карта сайта динамическая по умолчанию. Для CMS разработаны плагины и отдельные сервисы. Обновленные файлы можно вносить вручную, пометив их тегом <lastmod> до запуска переобхода.

На индексацию уходит от пары часов до нескольких недель. Иногда процесс занимает больше времени из-за нагрузки на Googlebot или медленного сервера.

Чем актуальнее контент для пользователя, тем быстрее Гугл его индексирует. К примеру, ссылки авторитетных источников новостей попадают в индекс через несколько минут.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *