Оптимизация фильтров в интернет-магазине

В данной статье хотелось бы разобраться с такой серьёзной проблемой, как фильтры каталога в интернет-магазинах.

На сайте каждого хорошего интернет-магазина есть блок с фильтрацией, при помощи которого пользователи могут найти интересующий их товар достаточно быстро.

Типичный пример фильтров на интернет-магазине Allo.ua:


Но фильтры также могут нанести существенный ущерб ранжированию и индексации сайта в поисковых системах. К сожалению, никто об этом не задумывается на этапе создания интернет-магазина, а стоило бы, так как внедрение минимального SEO-friendly избавит сайт от технических проблем с индексацией и ранжированием ресурса в поисковых системах.

Попробуем разобраться, какие проблемы для ранжирования несут в себе наиболее распространенные методы фильтрации.

Виды фильтрации:

Для того чтобы упростить понимание проблемы, разберем системы фильтрации на конкретных примерах.

1. Система фильтрации на Ajax:

Фильтры в данном случае применяются без перезагрузки страницы, и при этом её url адрес не изменяется.

Пример: http://www.red.ua/category/id/70/zhenskaja-odezhda/platja/


Есть ещё вариант такой фильтрации, когда после текущего url адреса добавляется что-то вроде:

#category_id=51&page=1&path=37_51&sort=p.date_added&order=DESC&limit=24&route=product%2Fcategory&min_price=2490 &max_price=8889&attribute_value[10][]=да

Это, скорее всего, система фильтрации на CMS Opencart, тоже Ajax. Всё страницы с хештегом # не индексируются, поэтому рассмотрим данные варианты вместе.

В коде страницы/кеше поисковых систем нет ссылок на страницы фильтрации. В индексе также таких страниц не замечено.

Отсюда следует, что никаких дублей быть не может и поисковая система не тратит свою квоту на индексацию бесполезных страниц по результатам фильтрации вида:

Женские платья / Синие / 44 размера / Mexx / цена от 100 до 500 грн / Распродажа

Очевидно, что на такую страницу не будет трафика, так как это не обусловлено спросом. И нет смысла создавать сотни тысяч таких страниц, это спам и бесполезное использования квоты индексирования.

Но есть и проблема: куда должны вести запросы вида:

  • Женские платья Mexx,
  • Женские платья из льна,
  • Женские платья из Белоруссии.

Для таких запросов нет релевантных страниц, трафик по таким запросам сайт не получит, а это уже проблема. Сайт теряет множество трафика из-за отсутствия релевантных страниц для товарных групп, которые обусловлены спросом.

Плюсы: Нет дубликатов, нет проблем с индексацией.

Минусы: Нет подкатегорий для сбора целевого трафика.

Варианты решения проблем:

В данном случае нам не нужно решать проблемы с индексацией, дублями и мусорными страницами, поэтому тут рекомендаций будет не так много.

1. Необходимое в первую очередь собрать семантическое ядро для всех страниц сайта. Выявить, исходя из спроса, какие подкатегории необходимы для каждой товарной группы.

2. Проконсультироваться с клиентом и программистом, как на данном сайте можно добавить ссылки на странички подкатегорий.

Т.е. необходимо добавить подкатегории, на которые есть или может быть спрос. Естественное, это необходимо сделать без ущерба дизайну и юзабилити.

Примеры реализации:

http://electronics.wikimart.ru/communication/cell/


http:\/\/stylus\.com\.ua\/ru\/products\/mobile_phones\/index\.html


3. Добавив все необходимые подкатегории, но не стоит забывать про:

  • Генерацию корректных чпу url-адресов для подкатегорий;
  • Корректную ссылку на подкатегорию в коде страницы, чтобы поисковые системы правильно индексировали новые подкатегории;
  • Изменение url-адреса при клике на ссылку;
  • Уникальные мета теги и заголовок для подкатегорий, контент;
  • Передачу веса на новые подкатегории, так как на новые страницы всего 1 внутренняя ссылка (из материнской категории). Это очень важно.

2. Фильтрация с добавлением параметра к url-адресу:

Пример: http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/

При применении фильтра, например, «выбор бренда» к url-адресу добавляется параметр http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?brands=23673

Кроме фильтров по цвету, бренду, материалу могут быть общие фильтры для каждой категории, например:

  • По цене,
  • От а до я,
  • По количеству товаров на странице,
  • По популярности,
  • По названию,
  • Новые,
  • Акционные.

Количество таких фильтров может быть очень большим, что, в свою очередь, порождает множество одинаковых по своему содержанию и назначению страниц.

Так как у каждой такой страницы есть уникальный url-адрес, поисковые системы сканируют данные страницы и добавляют многие из них в поисковый индекс. В результате мы получаем сотни тысяч страниц в индексе поисковых систем, но из них лишь 1% является полезным.

Получается, вот такая картина:


Загружено роботом — 860 148.

Страниц в поиске — 116 946.

Полезных и уникальных страниц на сайте ~ 5 000.

Т.е. поисковые системы скачали с сайта почти миллион страниц, а полезных в процентном соотношении там в принципе нет.

Поисковые системы не будут ранжировать высоко сайт, на котором полезное содержание нужно выискивать. У сайта из-за этого проблемы с индексированием, так как квота расходуется на дубликаты и мусорные страницы, а не на полезное содержимое.

Плюсы: есть посадочные страницы для подкатегорий.

Минусы: множество дублей и мусорных страниц, проблемы с индексацией, сайт низко ранжируется.

Решение проблемы:

Данный вид фильтрации гораздо сложнее оптимизировать, так как вариантов решения проблемы очень много.

В первую очередь нам необходимо определиться с целями, а именно:

1. Не допустить попадание в индекс поисковых систем страниц, которые не содержат никакой полезной информации.

2. Обеспечить максимальный охват целевой аудитории.

3. Не допустить сканирование мусорных и дублирующихся страниц. Разумно использовать квоту.

Попробуем пойти по порядку и не запутаться.

1. Необходимо выделить общие параметры для фильтров, по которым мы сможем закрыть данные страницы от индексации при помощи метатега .

*В случае если в url-адресе встречается одновременно 2 параметра, по которым мы закрываем страницы от индексации, мы можем прописать для того, чтобы предотвратить трату квоты на сканирование страниц, запрещенных для индексации. Таким образом, мы решаем сразу 1 и 3 проблему.

Примеры параметров, по которым нужно определить страницы и закрыть их от индексации:

Возьмем всё тот же сайт Lamoda.ua , навскидку я нашёл там следующие параметры:

http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?sizes=30663

http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?seasons=5592

http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?price=500%2C3700

Это, конечно же, не все параметры, которые нужно закрыть от индексации.

Т.е. нам необходимо закрыть от индексации все страницы, которые содержат в url-адресе следующие фрагменты:

?sizes=

?seasons=

?price=

...

Т.е. мы выбираем все мусорные и бесполезные страницы (которые не принесут нам трафика) и закрываем их от индексации.

Некоторые используют для этих целей файл Robots.txt, но не стоит забывать, что данный файл содержит в себе правила сканирования, а не индексирования. Это не гарантия того, что данные страницы не будут проиндексированы. Данные понятия не стоит путать.

2. Теперь попытаемся увеличить охват целевой аудитории при помощи оптимизации страниц фильтров, которые могут приносить трафик (бренд, материал).

*Собираем семантическое ядро;

*Исходя из семантики, оптимизируем страницы фильтров под запросы;

*Меняем url-адрес на чпу (если не слишком проблематично);

*Реализуем перелинковку для того, чтобы увеличить вес данных страниц.

Таким вот нехитрым образом мы существенно расширим охват целевой аудитории и привлечем дополнительно очень много трафика.

В заключение

При создании/продвижении интернет-магазина очень важно правильно оптимизировать систему фильтрации для того, чтобы сайт ранжировался в соответствии со своей релевантностью, а не находится за топ-100 из-за технических проблем.

Я очень надеюсь, что у вас возникнут вопросы по данной теме на которые я, с удовольствием, отвечу в комментариях.


(Голосов: 6, Рейтинг: 5)