Автоматические SEO-аудиты: как напугать некорректными выводами

Существует масса автоматических анализаторов SEO сайта. Достаточно вбить адрес онлайн – и вы получаете огромный перечень различных параметров, обычно разделенных на примитивные «хорошо», «плохо», «для информации». Безоговорочно следовать таким рекомендациям точно не стоит, а принимать во внимание – с большой осторожностью. Основные варианты неправильной интерпретации результатов таких анализов мы рассмотрим в этой статье.

Длина мета-тегов

Это чуть ли не первая ошибка в любом аудите. Title и meta-description на вашем проекте могут быть легко забракованы «анализатором», потому что тег «слишком длинный» или «слишком короткий». Не стоит расстраиваться. Оптимальная длина тега та, которая конкретно на этой странице позволит включить в него все важные ключевые слова и сделать его привлекательным для пользователя. То, что в ранжировании учитываются только 60-70 символов – миф. В сниппете – да, отображается ограниченное количество символов, но в ранжировании не учитывается. В некоторых случаях просто невозможно написать тег, который бы подошел под эти рамки. Например, если название продаваемого товара «Очиститель воздуха Xiaomi Smartmi Fresh Air System Wall Mounted (VTS6001CN)» уже состоит из 75 символов.

Длина title этой страницы – 228 символов. Позиция – ТОП-3. Точно ли длина имеет значение?

Что делать: пишите осмысленные title и meta-description с содержанием всех важных ключевых слов из семантического ядра страницы и не оглядывайтесь на их длину.

Анализ только главной страницы

Большинство онлайн-сервисов просят ввести адрес сайта и делают выводы только на основе анализа главной страницы. Учитывая, что на сайте могут быть десятки тысяч страниц (да и еще более важных для SEO, например, в каталоге), назвать такой анализ полным нельзя.

Интересно, Ламода знает, что у нее все плохо с SEO?)

Что делать: пользуйтесь парсерами (Screaming Frog, Netpeak, Comparser и аналоги), которые получат исчерпывающие данные обо всех страницах сайта. А выводы на основе этих данных будете делать уже вы сами или специалисты.

ТИЦ, PR, Яндекс.Каталог, DMOZ

ТИЦ=0, PR=0, сайт не присутствует в Яндекс.Каталоге и DMOZ. Такой вывод сейчас можно сделать о любом сайте в интернете, даже не используя анализатор. Потому что:

  • ТИЦ – отменен и заменен параметром ИКС;
  • PR – скрыт от пользователей и его невозможно узнать;
  • Яндекс.Каталог – закрыт;
  • Каталог DMOZ – не обновляется.

Многие сервисы анализа давно не обновляются и все еще выдают значения по несуществующим параметрам.

Маркетплейс Беру не зарегистрирован в DMOZ и Яндекс.Каталоге – не удивительно.

Что делать: не обращать внимание.

Скорость загрузки сайта

Некоторые полезные выводы из анализа всего, что связано со скоростью загрузки сайта, действительно сделать можно. Например, если время ответа сервера обычной HTML-страницы с текстом катастрофически большое (больше 3 секунд), то на это стоит обратить внимание. А если у вас страница со сложным сервисом и большим количеством картинок, которые нельзя убрать без потери качества страницы? Все не так однозначно. Проблема усугубляется тем, что часто в анализ вставляются данные инструмента Google PageSpeed Insights, который легко может выдать низкую оценку даже странице, которая загружается очень быстро. Разберемся по пунктам.

  1. Google PageSpeed Insights – это не сервис для измерения скорости сайта. Он лишь показывает возможности оптимизации скорости загрузки страницы. При этом может существовать множество параметров, которые можно внедрить по его рекомендациям, но какой в этом смысл, если страница и сейчас загружается за 100 мс?
  2. Оценка Google PageSpeed Insights не влияет на ранжирование. Это вытекает из первого пункта, потому что на ранжирование может влиять реальная скорость загрузки, а не относительная оценка оптимизации кода страницы. Чтобы в этом убедиться, достаточно проверить лидеров из вашей тематики – оценки их страниц могут быть еще хуже.

Даже «сильные мира сего» получают плохие оценки.

Что делать: оценивать реальную скорость загрузки сайта, которая влияет на его удобство. Например, с помощью инструментов WebPageTest и GTMetrix.

Анализ ссылочного профиля

Часто в автоматические аудиты вставляется статистика по динамике ссылочной массы сайта. Такие данные могут быть полезны, но только если они часто обновляются и только если сравнивать их с конкурентами в одном и том же сервисе. Проблема в том, что полнота базы ссылок сервисов – разная. Скорость обновления данных – разная. Достоверность – всегда меньше 100%. Ресурсы ограничены, и невозможно иметь данные в реальном времени обо всех существующих сайтах в интернете (а ведь теоретически ссылка на ваш сайт может появиться на любом ресурсе). Статистику ссылок по своему проекту лучше всего смотреть в кабинетах Яндекс и Google. Даже там данные обновляются не сразу, но хотя бы в ресурсах этих компаний и полноте базы сайтов сомневаться не приходится.

Что делать: использовать для анализа конкурентов инструменты с наиболее полной базой данных. На данный момент в порядке убывания это:

  • Ahrefs (платно),
  • NeilPatel Backlinks (бесплатно),
  • Serpstat (ограничено бесплатно),
  • Megaindex (ограничено бесплатно).

Данные сервиса LinkPad являются наименее достоверным и редко обновляются, но почему-то именно их часто используют в автоматических аудитах.

Анализ поисковых запросов и конкурентов

Данные о запросах и конкурентах очень ценны. Их можно и нужно использовать при составлении семантического ядра, при поиске конкурентов, при оценке динамики сайта по конкретным запросам. Однако, существуют 2 нюанса, которые следует обязательно учитывать.

  1. Любой сервис содержит данные не обо всех существующих запросах. Просто невозможно иметь все данные, так как по статистике 40% ежедневных запросов уникальны, они никогда ранее не спрашивались. О какой-либо статистике по таким запросам (если они не станут массовыми и постоянными) речи не идет. Такая неполнота данных приводит к тому, что запросы из узких тематик вообще могут не присутствовать в сервисах. И по проектам из таких тематик можно получить нулевой график (хотя в действительности переходы из поисковых систем есть). Автоматический сервис легко заявит вам, что «все плохо».
  2. Сервисы не классифицируют запросы по нишам. Это приводит к значительным искажениям, когда в статистику по вашему сайту попадает «не ваш» запрос. Пример: сайт по ремонту и обслуживанию компрессоров. Он растет и в какой-то момент даже появляется в ТОП-50 по запросу «компрессоры». Этот ВЧ-запрос сразу же переворачивает картину: по пересечению с этим запросом в списке ваших конкурентов появляются магазины по продаже компрессоров. Их видимость больше (конечно, ведь они занимаются продажей и интент запроса «компрессоры» больше про продажу, нежели про ремонт). Ваша удельная видимость по запросам, которые сервис выбрал релевантными сайту, падает. Анализатор рапортует, что все плохо, и у вас есть запросы вне ТОП-30.

Что делать: собирать полное релевантное сайту семантическое ядро и отслеживать позиции строго по нему. При необходимости отслеживать и конкурентов, но только действительно подходящих по этому же списку запросов. Да, запросы меняются, а также ядро может не содержать каких-то НЧ-запросов, но корректный маркерный список покажет картину точно лучше, чем анализ по всему многообразию не всегда подходящих сайту запросов.

Выводы

К любой автоматической оценке в SEO стоит подходить с осторожностью. Получать информацию из автоматических сервисов можно и нужно, но делать выводы на ее основе должен только специалист.

Лучшее решение для тех, кто не может сделать самостоятельно выводы о тех или иных параметрах – это посмотреть своих конкурентов и проверять по этим же параметрам. У лидера вашей тематики тоже длинный title, плохая оценка в PageSpeed Insights, а по анализу запросов он и не лидер вовсе? При этом вы все также видите своими глазами его в ТОП-3 по всем запросам из вашего семантического ядра? Значит причина неудач вашего проекта не в этих параметрах.

Если бы существовал такой сервис, который делает только правильные выводы, то на его основе бы уже сделали автоматический оптимизатор сайтов. Все бы этим пользовались и все сайты стали бы оптимизированными. Но мест в ТОП-10, как ни странно, только 10, и даже в таком случае без ручной работы специалиста было бы не обойтись ☺.

(Голосов: 44, Рейтинг: 4.34)