Самые распространенные ошибки в продвижении сайта и как их найти и исправить. Часть 1

О SEO можно сказать так: это мощный инструмент маркетинга, но только если не совершать ошибок. Действительно, поисковая оптимизация – сложный многоуровневый процесс, призванный не только привлекать трафик на сайт, но и в целом работать над улучшением продукта и выстраиванием взаимоотношений с клиентами. Не допустить промах и выбрать правильную стратегию оптимизации бывает довольно сложно, особенно если впервые занялся самостоятельным продвижением своего проекта.

Специалисты Rookee провели анализ основных ошибок при продвижении сайтов и показали на практических примерах, как их исправить.

1. Игнорируете robots.txt

Robots.txt – это текстовый файл, который расположен в корневой системе сайта. Это свод правил, который содержит параметры индексирования сайта для роботов поисковых систем. Проще говоря, диктует поисковикам, какие страницы сайта им индексировать, а какие нет.

Что предпочтительно закрывать от поисковых систем:

  • точки входа платных каналов (utm-метки и т. п.);
  • результаты работы функционалов (поиск, фильтр, отображения товаров, печати и т. п.); 
  • файлы pdf, doc, xls (если контент из них дублируется на основных); 
  • служебные страницы (корзина, личный кабинет, регистрация, авторизация).

Как проверить

В сервисе Яндекс Вебмастер можно проверить, закрыта ли страница от индексации, не регистрируясь в нем.

Как исправить

К примеру, функционал поиска может генерировать огромное количество дублей на сайте.

Предположим, что адреса ссылок в функционале поиска могут выглядеть вот так:

  • Site.ru/search/?search.text=мужские-джинсы 
  • Site.ru/search/?search.text=женские-джинсы 
  • Site.ru/search/?search.text=горячие-беляши

У всех вышеприведенных ссылок есть общий лем (слово): /search

Чтобы закрыть страницу, необходимо использовать директиву:

Disallow: /search

Disallow – запрещает индексирование разделов или отдельных страниц сайта.

Disallow: /search – страница поиска. Эта строка говорит поисковым роботам, что искать в результатах поиска не нужно.

Далее мы проверяем и формируем в Яндекс Вебмастере новый корректный файл Robots.txt, копируем его и размещаем в текстовом файле в корневой директории сайта.

Подобным образом можно проверить и закрыть от индексации все возможные варианты дублирования страниц, которые мы привели выше.

2. Не исправляете дубли

Разберем, как искать дубли на сайте, если они не очевидны и не входят в вышеперечисленный список из первого пункта. К примеру, из-за особенностей CMS сайт может самостоятельно генерировать дубли страниц.

Чтобы их найти, нужно в Яндекс Вебмастере в разделе «Индексирование» выбрать пункт «Страницы в поиске», кликнуть на вкладку «Исключенные страницы» и в фильтре «Статус» выбрать «Дубль» и нажать «Применить». Далее проверяем, какие страницы уже были исключены из поиска, так как Яндекс посчитал их дублями.

Как исправить

Все страницы с дублирующимися метатегами необходимо проверить. Если страницы действительно являются дублями, то их нужно исправлять – закрывать в robots, настраивать 301 редирект или прописывать атрибут rel= «canonical». Если же страницы не являются дублями и у них просто повторяются метатеги, то это тоже считается ошибкой, и метатеги необходимо уникализировать.

3. Не актуализируете sitemap.xml

Согласно справке Яндекса, Sitemap – это файл со ссылками на страницы сайта, который сообщает поисковым системам об актуальной структуре сайта. Он помогает поисковым системам быстро и качественно индексировать интернет-ресурс. Его необходимо регулярно обновлять. Например, после того как были внесены изменения в файл robots.txt, нужно внести изменения и в карте сайта.

Как проверить

Провести анализ карты сайта с помощью сервиса Яндекс Вебмастер.

Как исправить

Существуют специальные плагины, которые автоматически формируют карту сайта.

Примеры плагинов для формирования SITEMAP.XML:

4. Используете слишком много JavaScript

JavaScript – это популярный язык программирования, который владельцы сайта используют для создания анимации, поп-ап баннеров и других элементов пользовательского интерфейса. Поисковики уже давно говорят, что могут распознавать язык JavaScript, а значит, его использование не влияет на продвижение. Однако опыт утверждает другое: у сайта могут возникнуть сложности в продвижении, если он некорректно отображается в индексе.

Как проверить

Проверить это несложно. Для этого нужно открыть сохраненную копию сайта в результатах поиска Яндекса. На открывшейся странице выбираем вкладку «Только текст» и смотрим текстовую копию.

Именно так видит страницу робот поисковых систем. Необходимо проверить, все ли элементы сайта отображаются корректно, если нет – исправить ошибки, обратившись к программисту.

5. Не определяете приоритетные страницы

Как правило, оптимизация сайта, выкладка доработок на сайт и индексация всех изменений занимает примерно 2 месяца. Получается, что разделы, которые продвигаются по определенным запросам, будут пользоваться наибольшим спросом примерно через 2 месяца после начала SEO-кампании. Вот их и следует продвигать в первую очередь.

Для этого нужно четко понимать, какие разделы будут пользоваться наибольшим спросом через 2 месяца, через 3, 4 и так далее. При этом некоторые из запросов имеют очевидный пик спроса (например, «купить елочные игрушки»), а некоторые – совершенно неочевидны («купить холодильник» с пиком спроса в марте и июле).

Проверить пик спроса можно в Яндекс Вордстат.

6. Забрасываете SEO-продвижение

SEO – процесс постоянный. Поэтому позиция владельца сайта «запросы уже в топе – больше платить за продвижение не надо» не оправдывает себя. Поисковые системы развиваются, появляются новые факторы и алгоритмы ранжирования. Страница сайта из топ-3 через месяц-два может не выдержать конкуренцию с другими ресурсами, которые постоянно развиваются и меняются в соответствии с новыми требованиями пользователей и поисковиков, закупают новые ссылки.

К чему приводит такой подход:

  • видимость сайта снижается;
  • количество продаж становится меньше.

7. Используете только частотные и конкурентные запросы

SEO-специалисты делят все запросы по частотности – параметру, который показывает, насколько часто запрос вводится в поисковую строку:

  • низкочастотные (НЧ);
  • среднечастотные (СЧ);
  • высокочастотные (ВЧ).

Популярные (высокочастотные) запросы очень важны, и полностью отказываться от них не рекомендуется. Но не ими едиными живет успешное SEO.

Минусы высокочастотных запросов:

  • Большое количество рекламных объявлений.
  • Чем популярнее запрос, тем больше компаний хотят по нему рекламироваться. 
  • Крупные высокобюджетные бренды в выдаче, с которыми трудно конкурировать.

К чему приводит:

  • долгий срок вывода запроса в топ поисковика; 
  • низкий CTR; небольшой охват; 
  • высокая стоимость продвижения.

Из минусов логично вытекает следующая ошибка:

8. Не используете низкочастотные и микрочастотные запросы

Низкочастотные запросы пользователи вводят в поиск редко, но они тоже важны. Обычно низкочастотные запросы более конкретные и приводят более подготовленную к покупке аудиторию. В семантическом ядре должны присутствовать все варианты по частотности.

Что характерно для низкочастотных и микрочастотных:

  • Проще вывести в топ. 
  • Высокий очищенный спрос (более суженный спрос, количество показов запроса без словосочетаний). 
  • Высокий CTR. У низкочастотного запроса практически всегда выше CTR, потому что вводивший его пользователь точно знал, что ему нужно. 
  • Высокая конверсия. Человек, который вводит низкочастотный запрос «купить женский красный итальянский пуховик», скорее всего, уже настроен купить конкретный товар.

9. Не используете статистику для кластеризации запросов

Кластеризацией SEO-специалисты называют группировку запросов по интенту (по намерению пользователя, который вбивает запрос в поисковик).

Группируя запросы по потребностям пользователя, не нужно обращаться только к человеческой логике, правильнее и надежнее доверять сервисам аналитики Яндекса и Google. Пользователи непредсказуемы, а у поисковиков свой взгляд на кластеризацию. Группировать запросы можно с помощью бесплатного кластеризатора Coolakov.

10. Не учитываете запросы, которые уже приносят трафик

Собирая запросы и начиная оптимизировать под них страницы, можно потерять уже наработанный трафик по другим ключевым словам. И сайт начнет терять посетителей.

Чтобы этого не случилось, можно посмотреть в Яндекс Метрике, по каким фразам страницы сайта уже видны в поиске, выгрузить список текущих трафиконосных запросов, добавить его к подобранным и удалить дубликаты.

Это только некоторые из самых распространенных ошибок по SEO. Еще больше ошибок мы разбираем во второй части статьи.

(Голосов: 3, Рейтинг: 5)

X | Закрыть