Когда клиент проявляет желание улучшить проект, выполняет рекомендации SEO-команды и прислушивается к советам — это хорошо и результативно. Если он знает, как улучшить ситуацию самостоятельно — еще лучше. Но при этом желательно, чтобы инициативность сочеталась с открытостью, и команда по продвижению знала обо всех идеях заказчика. Иначе можно попасть в ситуацию, когда всего одно действие приводит к ухудшению результатов.
Что-то пошло не так
Наша команда получила заказ на создание и продвижение лендинга с доменом .com, с которым не должно было возникнуть проблем: тема специфическая, поэтому высокой конкуренции не ожидалось. Программисты и дизайнеры сделали свою работу, передали сайт оптимизаторам. Немного SEO-магии — и лендинг уже открыт для индексации, ждет посетителей и потенциальных счастливых клиентов компании.
Однако прошло пару недель, и что-то пошло не так. Мониторинг аналитики по Яндексу не предвещал ничего плохого. Запросы попадали в зону видимости, были посетители, трафик рос:
А вот с Google возникли проблемы: из пятнадцати запросов в ТОП 100 появился только один, но затем и он пропал. Картина выглядела удручающе:
Коварные хосты и всеядный Google
Корень проблемы оказался спрятан в чрезмерной самостоятельности клиента. Чтобы защититься от происков конкурентов, заказчик решил скупить брендовые домены .ru и .рф — и не предупредил нас об этом. На эти домены скопировалась вся информация с продвигаемого сайта: в том числе и robots.txt, в котором был указан правильный хост с продвигаемым доменом .com.
Из-за этого мы столкнулись с проблемой разных «подходов» у поисковиков. Если Яндекс обращает внимание на то, какой хост прописан в роботсе, то Google такую информацию игнорирует. Он решил, что приоритетный сайт — с доменом .ru, поэтому стал выводить его в результатах поиска. Что, конечно, никак не помогало нам в продвижении указанного в договоре сайта.
Решение проблемы
Чтобы задать для Google правильное направление индексации, мы настроили полные редиректы с зеркал на продвигаемый сайт.
Результат не заставил себя ждать:
Этот случай поможет вам уяснить 3 основных момента, которые уберегут от ошибок в будущем:
1. Google не обращает внимание на Host, прописанный в Robots.txt
2. Клиенту нужно доверять, но подстраховка не помешает. Регулярная проверка сайта на дубли поможет избежать досадных ошибок и сэкономит время.
3. Если дубли все-таки возникли – редиректы спасут ситуацию. Проверено на собственном опыте.
Также вам может быть интересно: Как заголовки H1–H6 влияют на продвижение?