Уважаемые мои читатели, друзья, подписчики в твиттере! Хочу сегодня поговорить о такой не тривиальной вещи как пагинация. Выясним чем хороша, чем плоха и что с ней делать, чтоб не навредить SEO. Да-да, именно не навредить! Но об этом позже. Начнем с хорошего. Какая же польза от самой пагинации?
Пагинация – это нумерация страниц сайта по порядку. Кажись проще некуда, да как бы не так! Такая простая штука как пагинация (он же пейджинг, он же листинг, он же постраничная пагинация) может принести очень много хлопот при индексации.
Пагинация и поведенческие факторы
Пагинация уже стала привычным и удобным способом навигации на сайте. Как ни крути, а без постраничной навигации на сайте (в большинстве случаев) не обойтись – посетители не любят сложности. Вот вам и влияние на поведенческие факторы!
[adrotate banner=”7″]
Пагинация и уровень вложенности страниц
Пейджинг решает замечательную проблему с глубиной вложенности страниц сайта. Ни поисковые роботы, ни человеки не любят шариться сильно глубоко – они хотят добраться максимально быстро и получить ответ на свой вопрос (для ботов это 3-4 уровень вложенности, для людей 2-3). Вот вам и большой плюс пагинации.
Ну, по традиции, начали с хороших новостей – продолжим плохими. Рассмотрим проблемы, которые могут возникать при использовании пагинации.
Пагинация и дубликаты
Самая распространена ошибка – дублирование контента. Зачастую контент страниц пагинации может быть идентичным, иметь одинаковые мета-теги. И это сыграет свою нехорошую роль, когда поисковик будет выбирать самую страницу релевантную конкретному запросу.
Пагинация и уровень вложенности vol.2
Ширина (объем) и глубина сканирования сайта ботом напрямую зависит от характеристик самого сайта (логично, что чем лучше сайт – сканирование чаще и эффективней). Простыми словами у поискового робота есть ограничение для вашего сайта.
А значит, если у вас на сайте настроена пагинация в «промышленных масштабах» (много страниц постраничной навигации), то быть беде! Ведь робот будет тратить свое ограничение посещения на пагинацию, а не другие страницы сайта. Плюс к этому – проблема с индексацией. Да и вряд ли боты проиндексируют конечные страницы листинга до конца.
Все эти потенциальны проблемы, с которой может столкнуться ваш сайт при использовании постраничной навигации, – решаются.
[adrotate banner=”7″]
Тем, кто очень хотел бы повысить поведенческие характеристики своего сайта, и кому не помешают лишние подписчики Вконтакте могут воспользоватся услугами данного сервиса http://vipsmm.ru.
6 способов решения проблем с навигацией страниц сайта
Способ 1 – noindex
Суть: из индекса исключаются все страницы пейджинга, кроме первой.
Реализация:
<meta name=»robots» content=»noindex, follow» />
Способ 2 – rel=“canonical”
Суть: на каждой пронумерованной странице указываем ссылку на ту, которая считается главной.
Реализация: прописываем это для каждой страницы пагинации и вуа-ля!
<link rel=”canonical” href=”ссылка на главную” />
Способ 3 – rel=”canonical” + view all
Суть: создается отдельная страница «Смотреть всё», которая выводит все-все страницы данного раздела (каталога), а для всех страниц пагинации каноничной прописывается страница «Смотреть всё».
Реализация:
<link rel=»canonical» href=»http://site.com/catalog/view-all.html» />
Способ 4 – rel=»prev»/»next»
Суть: все страницы в пределах одного раздела (каталога и пр.) связываются между собой.
Реализация:
Это прописываем для главной страницы пагинации (первой), так как задаваться связь начинает с именно с нее.
<link rel=»next» href=»http:// сайт/page/2.html»>
Для следующей страницы необходимо будет указать соседние страницы. С остальными страницами поступаем по аналогии.
<link rel=»prev» href=»http://сайт/page/1.html»>
<link rel=»next» href=»http:// сайт/page/3.html»>
Способ 5 – disallow (статические страницы)
Суть: делаем правки в файле robots.txt и прописываем куда нельзя ходить роботу.
Реализация:
Disallow: /category/page
Если адрес пронумерованной страницы – http://сайт/category/page/8
Способ 6 – disallow (динамические страницы)
Суть: тоже самое
Disallow: ?page=
либо
Clean-param: page /
Если адрес пронумерованной страницы – http://сайт/category?page=8
Так что, господа, будьте аккуратными с такими мелочами как пагинация; продумывайте наперед структуру сайта таким образом, чтоб создавать целевые интересные и уникальные страницы! И будет вам счастье!
Хотелось бы услышать ваше мнение по нескольким вопросам SEO пагинации…
Если есть магазин, в котором товары разбиты по категориям с пагинацией: сайт.ру/категория/ … сайт.ру/категория/?page2 … сайт.ру/категория/?pageN.
Но товар может принадлежать нескольким категориям, по этому чтобы не было дублей, у него есть “Главная категория”, к которой привязан canonical.
Получается связка canonical + «noindex,follow» + rel=«prev/next» для связки Яндекс + Google.
Насколько это корректен по вашему такой винегрет?
По крайней мере canonical + «noindex,follow»?
Еще со страниц >=2 советуют убирать description.
Имеется в виду описание категории в контенте или речь идет о теге MetaDescription?
Так же рекомендуют совсем убрать со всех страниц MetaKeywords.
Насколько это оправдано?
Добрый день.
Canonical + «noindex,follow» отлично подойдет для пагинации. Страницы пагинации не будут попадать в индекс, но робот будет переходить по ссылкам и индексировать товары.
По поводу description не понял вопроса.
Ключевые слова в принципе можете не удалять, но они работают только для супер НЧ запросов с небольшой конкуренции. Google заглядывает в кейвордс в последнюю очередь.
А как на счет canonical + «noindex,follow» + rel=«prev/next» для Яндекс + Google?
Конфликтов не будет?
Про дескрипшен…
Многие советуют на страницах >=2 убирать описание. Но я не понял о каком идет речь. Описание категории в контенте сайта или в теге metadescription?
К сожалению по Яндексу я не великий специалист. Но если rel=«prev/next» понимает только Яндекс, то у Google с этим проблем быть не должно.