О SEO можно сказать так: это мощный инструмент маркетинга, но только если не совершать ошибок. Действительно, поисковая оптимизация – сложный многоуровневый процесс, призванный не только привлекать трафик на сайт, но и в целом работать над улучшением продукта и выстраиванием взаимоотношений с клиентами. Не допустить промах и выбрать правильную стратегию оптимизации бывает довольно сложно, особенно если впервые занялся самостоятельным продвижением своего проекта.
Специалисты Rookee провели анализ основных ошибок при продвижении сайтов и показали на практических примерах, как их исправить.
1. Игнорируете robots.txt
Robots.txt – это текстовый файл, который расположен в корневой системе сайта. Это свод правил, который содержит параметры индексирования сайта для роботов поисковых систем. Проще говоря, диктует поисковикам, какие страницы сайта им индексировать, а какие нет.
Что предпочтительно закрывать от поисковых систем:
- точки входа платных каналов (utm-метки и т. п.);
- результаты работы функционалов (поиск, фильтр, отображения товаров, печати и т. п.);
- файлы pdf, doc, xls (если контент из них дублируется на основных);
- служебные страницы (корзина, личный кабинет, регистрация, авторизация).
Как проверить
В сервисе Яндекс Вебмастер можно проверить, закрыта ли страница от индексации, не регистрируясь в нем.
Как исправить
К примеру, функционал поиска может генерировать огромное количество дублей на сайте.
Предположим, что адреса ссылок в функционале поиска могут выглядеть вот так:
- Site.ru/search/?search.text=мужские-джинсы
- Site.ru/search/?search.text=женские-джинсы
- Site.ru/search/?search.text=горячие-беляши
У всех вышеприведенных ссылок есть общий лем (слово): /search
Чтобы закрыть страницу, необходимо использовать директиву:
Disallow: /search
Disallow – запрещает индексирование разделов или отдельных страниц сайта.
Disallow: /search – страница поиска. Эта строка говорит поисковым роботам, что искать в результатах поиска не нужно.
Далее мы проверяем и формируем в Яндекс Вебмастере новый корректный файл Robots.txt, копируем его и размещаем в текстовом файле в корневой директории сайта.
Подобным образом можно проверить и закрыть от индексации все возможные варианты дублирования страниц, которые мы привели выше.
2. Не исправляете дубли
Разберем, как искать дубли на сайте, если они не очевидны и не входят в вышеперечисленный список из первого пункта. К примеру, из-за особенностей CMS сайт может самостоятельно генерировать дубли страниц.
Чтобы их найти, нужно в Яндекс Вебмастере в разделе «Индексирование» выбрать пункт «Страницы в поиске», кликнуть на вкладку «Исключенные страницы» и в фильтре «Статус» выбрать «Дубль» и нажать «Применить». Далее проверяем, какие страницы уже были исключены из поиска, так как Яндекс посчитал их дублями.
Как исправить
Все страницы с дублирующимися метатегами необходимо проверить. Если страницы действительно являются дублями, то их нужно исправлять – закрывать в robots, настраивать 301 редирект или прописывать атрибут rel= «canonical». Если же страницы не являются дублями и у них просто повторяются метатеги, то это тоже считается ошибкой, и метатеги необходимо уникализировать.
3. Не актуализируете sitemap.xml
Согласно справке Яндекса, Sitemap – это файл со ссылками на страницы сайта, который сообщает поисковым системам об актуальной структуре сайта. Он помогает поисковым системам быстро и качественно индексировать интернет-ресурс. Его необходимо регулярно обновлять. Например, после того как были внесены изменения в файл robots.txt, нужно внести изменения и в карте сайта.
Как проверить
Провести анализ карты сайта с помощью сервиса Яндекс Вебмастер.
Как исправить
Существуют специальные плагины, которые автоматически формируют карту сайта.
Примеры плагинов для формирования SITEMAP.XML:
4. Используете слишком много JavaScript
JavaScript – это популярный язык программирования, который владельцы сайта используют для создания анимации, поп-ап баннеров и других элементов пользовательского интерфейса. Поисковики уже давно говорят, что могут распознавать язык JavaScript, а значит, его использование не влияет на продвижение. Однако опыт утверждает другое: у сайта могут возникнуть сложности в продвижении, если он некорректно отображается в индексе.
Как проверить
Проверить это несложно. Для этого нужно открыть сохраненную копию сайта в результатах поиска Яндекса. На открывшейся странице выбираем вкладку «Только текст» и смотрим текстовую копию.
Именно так видит страницу робот поисковых систем. Необходимо проверить, все ли элементы сайта отображаются корректно, если нет – исправить ошибки, обратившись к программисту.
5. Не определяете приоритетные страницы
Как правило, оптимизация сайта, выкладка доработок на сайт и индексация всех изменений занимает примерно 2 месяца. Получается, что разделы, которые продвигаются по определенным запросам, будут пользоваться наибольшим спросом примерно через 2 месяца после начала SEO-кампании. Вот их и следует продвигать в первую очередь.
Для этого нужно четко понимать, какие разделы будут пользоваться наибольшим спросом через 2 месяца, через 3, 4 и так далее. При этом некоторые из запросов имеют очевидный пик спроса (например, «купить елочные игрушки»), а некоторые – совершенно неочевидны («купить холодильник» с пиком спроса в марте и июле).
Проверить пик спроса можно в Яндекс Вордстат.
6. Забрасываете SEO-продвижение
SEO – процесс постоянный. Поэтому позиция владельца сайта «запросы уже в топе – больше платить за продвижение не надо» не оправдывает себя. Поисковые системы развиваются, появляются новые факторы и алгоритмы ранжирования. Страница сайта из топ-3 через месяц-два может не выдержать конкуренцию с другими ресурсами, которые постоянно развиваются и меняются в соответствии с новыми требованиями пользователей и поисковиков, закупают новые ссылки.
К чему приводит такой подход:
- видимость сайта снижается;
- количество продаж становится меньше.
7. Используете только частотные и конкурентные запросы
SEO-специалисты делят все запросы по частотности – параметру, который показывает, насколько часто запрос вводится в поисковую строку:
- низкочастотные (НЧ);
- среднечастотные (СЧ);
- высокочастотные (ВЧ).
Популярные (высокочастотные) запросы очень важны, и полностью отказываться от них не рекомендуется. Но не ими едиными живет успешное SEO.
Минусы высокочастотных запросов:
- Большое количество рекламных объявлений.
- Чем популярнее запрос, тем больше компаний хотят по нему рекламироваться.
- Крупные высокобюджетные бренды в выдаче, с которыми трудно конкурировать.
К чему приводит:
- долгий срок вывода запроса в топ поисковика;
- низкий CTR; небольшой охват;
- высокая стоимость продвижения.
Из минусов логично вытекает следующая ошибка:
8. Не используете низкочастотные и микрочастотные запросы
Низкочастотные запросы пользователи вводят в поиск редко, но они тоже важны. Обычно низкочастотные запросы более конкретные и приводят более подготовленную к покупке аудиторию. В семантическом ядре должны присутствовать все варианты по частотности.
Что характерно для низкочастотных и микрочастотных:
- Проще вывести в топ.
- Высокий очищенный спрос (более суженный спрос, количество показов запроса без словосочетаний).
- Высокий CTR. У низкочастотного запроса практически всегда выше CTR, потому что вводивший его пользователь точно знал, что ему нужно.
- Высокая конверсия. Человек, который вводит низкочастотный запрос «купить женский красный итальянский пуховик», скорее всего, уже настроен купить конкретный товар.
9. Не используете статистику для кластеризации запросов
Кластеризацией SEO-специалисты называют группировку запросов по интенту (по намерению пользователя, который вбивает запрос в поисковик).
Группируя запросы по потребностям пользователя, не нужно обращаться только к человеческой логике, правильнее и надежнее доверять сервисам аналитики Яндекса и Google. Пользователи непредсказуемы, а у поисковиков свой взгляд на кластеризацию. Группировать запросы можно с помощью бесплатного кластеризатора Coolakov.
10. Не учитываете запросы, которые уже приносят трафик
Собирая запросы и начиная оптимизировать под них страницы, можно потерять уже наработанный трафик по другим ключевым словам. И сайт начнет терять посетителей.
Чтобы этого не случилось, можно посмотреть в Яндекс Метрике, по каким фразам страницы сайта уже видны в поиске, выгрузить список текущих трафиконосных запросов, добавить его к подобранным и удалить дубликаты.
Это только некоторые из самых распространенных ошибок по SEO. Еще больше ошибок мы разбираем во второй части статьи.