Страницы пагинации

Страницами пагинации называют определенные страницы каталога, где присутствует список статей или товаров, которые не поместились на самых первых страницах раздела и категории. Как правило, это вторая, третья и остальные страницы, кроме первой. Почти всегда располагается в нижней области интернет-ресурса, хотя можно размещать и сверху.

Правила настройки пагинации

На многих страницах пагинации происходит частичное дублирование текстового контента. Это же относится и к мета-тегам. Но такое решение не только существенно ухудшает показатели внутренней оптимизации, но и негативно влияет на релевантность главных посадочных интернет-страниц в отношении пользовательских запросов через поисковики. Конечно же, подобные площадки будут намного хуже ранжироваться в выдаче поиска.
При этом существует и другая серьезная проблема, которую не всегда учитывают. Поисковые роботы посещают ресурс, а затем анализируют его. Но количество и глубина просматриваемых страниц могут иметь ограничения, зависящие не только от частоты обновления материалов, но и траста. При этом наличие частичных дублей снижает вероятность индексирования необходимых страниц, так как бот впустую тратит драгоценные переходы.
Но сейчас грамотно оптимизировать подобные страницы можно разными способами. При этом каждый подход имеет положительные и отрицательные стороны, а также определенную сложность внедрения.

Неактуальные методы оптимизации страниц пагинации

Скрытие страниц пагинации при помощи robots.txt

Нет необходимости редактировать код интернет-ресурса, что делает данный способ быстровыполнимым. Благодаря маске директивы в robots.txt есть возможность быстро закрыть нумерованные страницы. Но конкретная директива напрямую связана с вариантом реализации подобных страниц площадки.
Данный метод действительно позволяет избавиться от дублирующихся страниц нумерации, которые относятся к индексу поисковиков. Вот только придется достаточно долго ждать, когда из индекса все-таки исчезнут страницы, попавшие туда ранее. Робот (поисковая система) увидит директиву с запретом в данном файле, а потом просто проигнорирует такую страницу. Могут возникнуть неприятности с индексированием товарных страниц пагинации, располагающихся в файле robots.txt.

Использование <meta name="robots" content="noindex, follow">

Как и в предыдущем методе страницы пагинации будут запрещены для индексации. Но есть отличия:
  • Робот сможет беспрепятственно переходить по страницам пагинации и индексировать все ссылки на них, что решает проблему индексации карточек товаров.
  • Попавшие в индекс страницы пагинации при переобходе будут удалены из индекса.
Но у этого метода тоже есть свои минусы:

  • Теряются ссылочные свойства
  • Не подходит для больших статей, разбитых на страницы, т.к. часть важного контента закрыта от поисковых роботов.

Пагинация с тегом rel = "canonical" на начальную страницу

Чуть ли не самое распространенное решение для борьбы с дублирующимися страницами пагинации в поисковом индексе. Причем такой метод действительно является эффективным. Но он существенно затрудняет индексирование товаров, которые находятся на страницах пагинации.
В органическом поиске этот метод плохо влияет на ранжирование. Причины такие же, как в предыдущем методе.
А с недавних пор Гугл причислил настройку ссылок канонического типа, располагающихся на самой начальной странице категории, к наиболее частым ошибкам. В Google заявляют, что каноникал используется для дублированного контента, в то время как страницы пагинации дублями не являются.
При этом в Яндексе этот способ является рекомендованным.

Теги Prev/Next

Ранее использование этих указаний было идеальным способом для Google. Но в 2019 году поисковик заявил об отказе от их использования. Яндекс не учитывал их и ранее.

Прогрессивные способы оптимизации страниц пагинации

Создание цельной страницы без пагинации

Как говорится нет пагинации – нет проблем. Для обоих поисковиков это будет лучшим способом, имеющим ряд преимуществ:
  • Пользователя удобнее смотреть весь контент сразу, чем переключаться между страницами.
  • Сохраняются все свойства и не возникает проблем с индексацией.
  • Улучшение ранжирования. Поисковики любят, когда страница решает максимальное количество проблем пользователей, за что могут поднять ее в выдаче.

Но, как и везде, существует несколько минусов:
  • Скорость загрузки для большого количества контента может значительно упасть, что ухудшит поведенческие факторы (увеличит количество отказов), и таким образом негативно скажется на ранжировании.
  • Чтобы решить проблему скорости загрузки необходимо настроить отображение страницы по частям с динамической подгрузкой контента по мере скролинга. При этом поисковым роботам при сканировании контент должен быть доступен целиком. для реализации понадобится помощь квалифицированного программиста.

Оставить все как есть

Как ни странно, но это вполне работает, и даже рекомендуется Гуглом, как нормальное решение проблемы. Поисковый гигант мотивирует это верой в свои алгоритмы, которые по их словам могут сами разобраться в данной ситуации.
Но есть одно НО. Часто некоторые страницы признаются дублями и вылетают из индекса.
Поэтому чтобы способ стал не просто нормальным, а хорошим необходимо внести некоторые доработки. Для любого типа сайта нужно уникализировать мета-теги. Проще всего это сделать добавив в title и description страниц пагинации номера страниц (например, «стр.- 4»).
Вторым важным моментом являются дубли контента на странице. Это актуально для интернет-магазинов, в которых текст повторяется на каждой странице. Необходимо оставить его только на той странице, которую вы хотите видеть в индексе (обычно первая).

Что выбрать?

При выборе способа лучше отталкиваться от вашей конкретной ситуации и приоритетной поисковой системы. Прогрессивные методы подойдут для обоих поисковиков, но сложны в реализации при отсутствии навыков, поэтому потребуют привлечения хорошей компании по продвижению сайтов.