Некачественные страницы для Яндекса — какие страницы попадают в эту категорию? 13 диагнозов и способов лечения
Некачественные страницы (Яндекс) — 13 диагнозов и способов лечения
Дубли страниц
К страницам низкого качества довольно часто попадают дубликаты страниц. Такие страницы довольно легко определить, если кроме URL ничего не уникализированно.
Решение: 301 редирект или rel=“canonical”.
Страницы сортировки, пагинации и GET-параметры
Чаще Яндекс исключает такие страницы, как дубли, но они могут быть удалены и по другой причине.
Решение: настраиваем rel=“canonical”/уникализируем страницы пагинации.
Неглавное зеркало
Сайт переехал на защищённый протокол. Долгое время робот Яндекса не знал, что делать со старой страницей на HTTP и, то удалял её как некачественную, то добавлял обратно в поиск.
Решение: проверяем 301 редирект, отправляем на переиндексацию.
Страницы, закрытые в файле robots.txt
Директивы в файле robots.txt не являются прямыми указаниями для поисковых роботов, а служат больше рекомендациями. Исходя из практики, бот Яндекса больше придерживается установок, прописанных в файле, чем Google. Но иногда страницы причисляются к некачественным на этом основании.
Решение: если страница не нужна в поиске, настраиваем метатег noindex.
Шаблонная сгенерированная страница
Часто шаблонное заполнение и генерация страниц влечёт за собой ошибки внутренней оптимизации:
- неуникальные Title,
- отсутствует Description,
- ошибки с H1
Решение: если страница нужна в поиске – уникализируем её, работаем над качеством.
Плохое заполнение карточек товара
Создать карточку товара просто, а вот наполнить её качественным контентом, описанием товара, изображениями – не каждому под силу.
Решение: добавляем описание товара, изображения и т. д.
Пустая страница категории
Создавать страницы категорий/подкатегорий без товара – лишено смысла, так как: вряд ли такая страница попадёт в ТОП; вероятнее всего, показатель отказов на такой странице будет максимальный. Об этом скажет и сам Яндекс, исключив страницу из поиска как недостаточно качественную.
Решение: проверяем, приносили ли такие страницы трафик; определяем, нужны ли они пользователям; временно ли на них отсутствует товар или его не было и не будет. Принимаем действия исходя из результата. Например, если страница приносила трафик и на ней временно отсутствует товар, можно вывести ленту с похожими товарами или со смежных категорий.
Страницы с малым количеством контента
Несмотря на слова поддержки Яндекса, что важно не количество контента, а качество, его отсутствие – не очень хорошая идея.
Решение: определяем необходимость таких страниц в поиске, если они нужны – наполняем качественным контентом; не нужны – настраиваем метатег noindex.
Страницы, не предназначенные для поиска
В эту группу относятся страницы robots.txt, Sitemap, RSS-ленты. Чуть ли не в каждом проекте можно встретить файл robots.txt, удалённый из поиска как недостаточно качественная страница. Яндекс считает, что RSS-лентам в поиске тоже нет места.
Решение: тут всё просто – ничего не делаем, просто живём с этим.
Страницы с некорректным ответом сервера
Страницы, которые должны выдавать 404 ответ сервера, а вместо этого отвечают 200 ОК. Например, это могут быть несуществующие страницы пагинации. Также это могут быть пустые страницы. В таком случае нужно анализировать и принимать решение: настраивать 404 ответ сервера или 301 редирект.
Решение: настраиваем корректный ответ сервера.
Большое количество маловажных страниц
Этим часто грешат агрегаторы и интернет-магазины, считая, что чем больше страниц, тем больше видимость и трафик.
- под каждый вопрос из FAQ.
- страницы всех фильтров при выборе товара в магазине.
Решение: проверяем, приносили ли такие страницы трафик, определяем, нужны ли они пользователям в поиске, частотны ли запросы – принимаем действия исходя из результата.
Технические ошибки на странице
Страницы с проблемными всплывающими окнами, страницы под каждое изображение, созданные случайно.
Решение: исправляем недочёты/если страницы не нужны – закрываем noindex/настраиваем 404 ответ сервера.
Нерелевантные страницы
Страница может быть исключена из поиска даже в том случае, если отсутствуют запросы. Робот может вернуть её, если количество запросов, которым будет релевантна страница, увеличится. Сколько бы страниц ни было исключено из поиска по этой причине, на ранжировании остальных страниц сайта это никак не отразится.
Решение: проверяем, приносили ли такие страницы трафик, определяем, нужны ли они пользователям в поиске, частотны ли запросы – принимаем действия исходя из результата.
Конспект этой классной статьи