29–30 сентября в Иннополисе проходила VII международная
Дмитрий Шахов, директор студии
По словам Дмитрия, самый большой враг для поискового продвижения сайта – это его владелец или оптимизатор. Изменение контента сайта, его дизайна, адресной структуры страниц, удаление трафиковых страниц, создание дублей и даже закрытие сайта в disallow могут серьезно навредить ресурсу. И это далеко не все.
Но и конкуренты не спят. И взлом или DDoS – не единственное, что они могут сделать с вашим ресурсом. Вот на что еще конкуренты могут повлиять извне:
Рассмотрим каждый пункт по отдельности.
Если говорить об индексе, то здесь есть две опасности: кража краулингового бюджета и обнуление индекса.
Первый вариант – украсть краулинговый бюджет? Один из способов приведен ниже:
Но с этим можно бороться. Для этого нужно регулярно, хотя бы раз в неделю, мониторить панель Вебмастера на аномальный прирост загруженных роботами страниц и сканировать сайт на предмет аномалий.
Второй вариант – обнулить индекс. Делается это просто:
Бороться с этим никак не получится. Но лучше разместить сайт на хорошем хостинге и не забывать продлевать домен в срок.
Следующая проблема – изменение контента. Это касается в первую очередь сайтов, которые развиваются за счет UGC (блоги, форумы, порталы), и в меньшей степени коммерческих площадок, у которых не отключены соцмодули.
В этом случае конкуренты могут размещать хороший контент, но размывать вес по ключевым словам или создавать переспам. Или могут добавить плохой контент и загнать сайт под фильтр.
Бороться с этим можно несколькими способами:
Третья проблема – ссылочный профиль. Существует миф, что завалить конкурента с помощью ссылок очень просто. На самом деле сделать что-то плохое с их помощью довольно трудно, потому что не все плохие ссылки вредны.
Завалить конкурентный сайт можно системной длительной покупкой ссылок либо скопированным ссылочным профилем сайта под «Минусинском».
Как бороться? Вспышек бояться не стоит, а вот системного роста нужно опасаться. В Google такие ссылки можно искать и удалять с помощью Disavow Tool, а в Яндексе остается писать в саппорт и надеяться на лучшее.
Другой вариант – не ставить, а снимать ссылки. Сейчас очень популярны запросы в духе «Снимите ссылки на нас», но никто особо не анализирует, откуда эти запросы приходят. Поэтому можно «выгрести» ссылочный профиль и написать владельцам сайтов-доноров с просьбой убрать ссылки.
Следующая проблема – поведенческие факторы. С их помощью завалить сайт очень сложно, особенно вручную. Можно сделать это с помощью автоматизированных сервисов, но это тоже не так уж легко: накрутка биржами займет много времени, будет стоить дорого и все равно даст невысокие результаты.
Какие здесь есть варианты:
Но чтобы эти методы действовали, объем «накрученного» трафика должен быть значительным, а период его получения – длительным.
Бороться с этим не получится, потому что небольшой объем вряд ли повредит, а большой перекрыть не получится, пока он сам не прекратится.
Еще одна проблема – работа со свойствами домена. Здесь есть несколько вариантов: склейка с плохим доменом и свертка в сеть с плохими сайтами.
Что мы знаем о склейке: санкции не передаются, зато можно переклеить доменные свойства.
Делается это просто: ссылочный профиль точно передается, так что ищутся домены, забаненные за ссылки или накрутку ПФ, клеятся, а потом остается ждать, когда будут наложены санкции (от 3 недель до 4–6 месяцев).
Что мы знаем о свертке: у плохих сайтов есть набор совпадающих свойств. Проще всего развернуть свою сеть плохих сайтов со свойствами, которые будут близки конкуренту (хост, шаблон, контент, адрес, телефон…), а потом утопить всю сеть, например, под АГС.
Бороться с этим можно так: следить за появлением аномальных сайтов и склеек, писать в саппорт хостинга, где размещены такие сайты.
И последний рассмотренный вариант – контент.
Чем можно навредить здесь:
Но обычно работа с контентом ничем не грозит. Конечно, иногда меняется авторство, и тогда сайт станет дублем и выпадет и топа. Еще может произойти склейка по сниппетам, подмес ниже в выдачу по НЧ и перехват трафика и конверсий.
Бороться просто – следить за дублями и вовремя их устранять.
***
Завершил доклад Дмитрий на позитивной ноте. Да, есть много способов работы против сайтов конкурентов, но навредить ресурсу может только системная работа, а ее легко распознать на ранних этапах.
Читайте и другие обзоры с SEO Conference 2016:
SEO Conference 2016: Поведенческие факторы 7.0 от Романа Морозова
SEO Conference 2016: все-таки адаптив?
SEO Conference: как обеспечить безопасность клиентских сайтов
SEO Conference 2016: Рекламные возможности ВКонтакте и фишки MyTarget