Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (909) 261-97-71
23 Января 2020 в 16:33

Автоматические SEO-аудиты: как напугать некорректными выводами

Россия +7 (909) 261-97-71
12 32053
Подпишитесь на нас в Telegram
Артем Дорофеев
Руководитель SEO-отдела Original Works

Существует масса автоматических анализаторов SEO сайта. Достаточно вбить адрес онлайн – и вы получаете огромный перечень различных параметров, обычно разделенных на примитивные «хорошо», «плохо», «для информации». Безоговорочно следовать таким рекомендациям точно не стоит, а принимать во внимание – с большой осторожностью. Основные варианты неправильной интерпретации результатов таких анализов мы рассмотрим в этой статье.

Длина мета-тегов

Это чуть ли не первая ошибка в любом аудите. Title и meta-description на вашем проекте могут быть легко забракованы «анализатором», потому что тег «слишком длинный» или «слишком короткий». Не стоит расстраиваться. Оптимальная длина тега та, которая конкретно на этой странице позволит включить в него все важные ключевые слова и сделать его привлекательным для пользователя. То, что в ранжировании учитываются только 60-70 символов – миф. В сниппете – да, отображается ограниченное количество символов, но в ранжировании не учитывается. В некоторых случаях просто невозможно написать тег, который бы подошел под эти рамки. Например, если название продаваемого товара «Очиститель воздуха Xiaomi Smartmi Fresh Air System Wall Mounted (VTS6001CN)» уже состоит из 75 символов.

Длина мета-тегов

Длина title этой страницы – 228 символов. Позиция – ТОП-3. Точно ли длина имеет значение?

Что делать: пишите осмысленные title и meta-description с содержанием всех важных ключевых слов из семантического ядра страницы и не оглядывайтесь на их длину.

Анализ только главной страницы

Большинство онлайн-сервисов просят ввести адрес сайта и делают выводы только на основе анализа главной страницы. Учитывая, что на сайте могут быть десятки тысяч страниц (да и еще более важных для SEO, например, в каталоге), назвать такой анализ полным нельзя.

Анализ только главной страницы

Интересно, Ламода знает, что у нее все плохо с SEO?)

Что делать: пользуйтесь парсерами (Screaming Frog, Netpeak, Comparser и аналоги), которые получат исчерпывающие данные обо всех страницах сайта. А выводы на основе этих данных будете делать уже вы сами или специалисты.

ТИЦ, PR, Яндекс.Каталог, DMOZ

ТИЦ=0, PR=0, сайт не присутствует в Яндекс.Каталоге и DMOZ. Такой вывод сейчас можно сделать о любом сайте в интернете, даже не используя анализатор. Потому что:

  • ТИЦ – отменен и заменен параметром ИКС;
  • PR – скрыт от пользователей и его невозможно узнать;
  • Яндекс.Каталог – закрыт;
  • Каталог DMOZ – не обновляется.

Многие сервисы анализа давно не обновляются и все еще выдают значения по несуществующим параметрам.

ТИЦ, PR, Яндекс.Каталог, DMOZ

Маркетплейс Беру не зарегистрирован в DMOZ и Яндекс.Каталоге – не удивительно.

Что делать: не обращать внимание.

Скорость загрузки сайта

Некоторые полезные выводы из анализа всего, что связано со скоростью загрузки сайта, действительно сделать можно. Например, если время ответа сервера обычной HTML-страницы с текстом катастрофически большое (больше 3 секунд), то на это стоит обратить внимание. А если у вас страница со сложным сервисом и большим количеством картинок, которые нельзя убрать без потери качества страницы? Все не так однозначно. Проблема усугубляется тем, что часто в анализ вставляются данные инструмента Google PageSpeed Insights, который легко может выдать низкую оценку даже странице, которая загружается очень быстро. Разберемся по пунктам.

  1. Google PageSpeed Insights – это не сервис для измерения скорости сайта. Он лишь показывает возможности оптимизации скорости загрузки страницы. При этом может существовать множество параметров, которые можно внедрить по его рекомендациям, но какой в этом смысл, если страница и сейчас загружается за 100 мс?
  2. Оценка Google PageSpeed Insights не влияет на ранжирование. Это вытекает из первого пункта, потому что на ранжирование может влиять реальная скорость загрузки, а не относительная оценка оптимизации кода страницы. Чтобы в этом убедиться, достаточно проверить лидеров из вашей тематики – оценки их страниц могут быть еще хуже.

Скорость загрузки сайта

Даже «сильные мира сего» получают плохие оценки.

Что делать: оценивать реальную скорость загрузки сайта, которая влияет на его удобство. Например, с помощью инструментов WebPageTest и GTMetrix.

Анализ ссылочного профиля

Часто в автоматические аудиты вставляется статистика по динамике ссылочной массы сайта. Такие данные могут быть полезны, но только если они часто обновляются и только если сравнивать их с конкурентами в одном и том же сервисе. Проблема в том, что полнота базы ссылок сервисов – разная. Скорость обновления данных – разная. Достоверность – всегда меньше 100%. Ресурсы ограничены, и невозможно иметь данные в реальном времени обо всех существующих сайтах в интернете (а ведь теоретически ссылка на ваш сайт может появиться на любом ресурсе). Статистику ссылок по своему проекту лучше всего смотреть в кабинетах Яндекс и Google. Даже там данные обновляются не сразу, но хотя бы в ресурсах этих компаний и полноте базы сайтов сомневаться не приходится.

Что делать: использовать для анализа конкурентов инструменты с наиболее полной базой данных. На данный момент в порядке убывания это:

  • Ahrefs (платно),
  • NeilPatel Backlinks (бесплатно),
  • Serpstat (ограничено бесплатно),
  • Megaindex (ограничено бесплатно).

Данные сервиса LinkPad являются наименее достоверным и редко обновляются, но почему-то именно их часто используют в автоматических аудитах.

Анализ поисковых запросов и конкурентов

Данные о запросах и конкурентах очень ценны. Их можно и нужно использовать при составлении семантического ядра, при поиске конкурентов, при оценке динамики сайта по конкретным запросам. Однако, существуют 2 нюанса, которые следует обязательно учитывать.

  1. Любой сервис содержит данные не обо всех существующих запросах. Просто невозможно иметь все данные, так как по статистике 40% ежедневных запросов уникальны, они никогда ранее не спрашивались. О какой-либо статистике по таким запросам (если они не станут массовыми и постоянными) речи не идет. Такая неполнота данных приводит к тому, что запросы из узких тематик вообще могут не присутствовать в сервисах. И по проектам из таких тематик можно получить нулевой график (хотя в действительности переходы из поисковых систем есть). Автоматический сервис легко заявит вам, что «все плохо».
  2. Сервисы не классифицируют запросы по нишам. Это приводит к значительным искажениям, когда в статистику по вашему сайту попадает «не ваш» запрос. Пример: сайт по ремонту и обслуживанию компрессоров. Он растет и в какой-то момент даже появляется в ТОП-50 по запросу «компрессоры». Этот ВЧ-запрос сразу же переворачивает картину: по пересечению с этим запросом в списке ваших конкурентов появляются магазины по продаже компрессоров. Их видимость больше (конечно, ведь они занимаются продажей и интент запроса «компрессоры» больше про продажу, нежели про ремонт). Ваша удельная видимость по запросам, которые сервис выбрал релевантными сайту, падает. Анализатор рапортует, что все плохо, и у вас есть запросы вне ТОП-30.

Что делать: собирать полное релевантное сайту семантическое ядро и отслеживать позиции строго по нему. При необходимости отслеживать и конкурентов, но только действительно подходящих по этому же списку запросов. Да, запросы меняются, а также ядро может не содержать каких-то НЧ-запросов, но корректный маркерный список покажет картину точно лучше, чем анализ по всему многообразию не всегда подходящих сайту запросов.

Выводы

К любой автоматической оценке в SEO стоит подходить с осторожностью. Получать информацию из автоматических сервисов можно и нужно, но делать выводы на ее основе должен только специалист.

Лучшее решение для тех, кто не может сделать самостоятельно выводы о тех или иных параметрах – это посмотреть своих конкурентов и проверять по этим же параметрам. У лидера вашей тематики тоже длинный title, плохая оценка в PageSpeed Insights, а по анализу запросов он и не лидер вовсе? При этом вы все также видите своими глазами его в ТОП-3 по всем запросам из вашего семантического ядра? Значит причина неудач вашего проекта не в этих параметрах.

Если бы существовал такой сервис, который делает только правильные выводы, то на его основе бы уже сделали автоматический оптимизатор сайтов. Все бы этим пользовались и все сайты стали бы оптимизированными. Но мест в ТОП-10, как ни странно, только 10, и даже в таком случае без ручной работы специалиста было бы не обойтись ☺.

12 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • SEOquick
    38
    комментариев
    0
    читателей
    SEOquick
    больше года назад
    Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
    -
    1
    +
    Ответить
    • Алексей Махметхажиев
      5
      комментариев
      0
      читателей
      Алексей Махметхажиев
      SEOquick
      больше года назад
      Согласен. Заходишь и смотришь свой сайт в анализаторе. Потом измеряешь всех конкурентов и идешь ускорять свой сайт.))
      -
      0
      +
      Ответить
  • Алексей Махметхажиев
    5
    комментариев
    0
    читателей
    Алексей Махметхажиев
    больше года назад
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть ...
    Коротко - автор статьи не разбирается в предмете скорости загрузки сайтов и пишет на ощущениях.
    Это неправильно.
    Чего только стоит вот это утверждение:
    "Google PageSpeed Insights – это не сервис для измерения скорости сайта."
    Если бы он так написал до ноября 2018 года - это было бы правдой, но после ноября 2018 Гугл стал измерять именно скорость загрузки сайта. То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного - тоже мало кто знает. Вот если автор статьи посмотрит скорость загрузки с десктопа по гугл, то там данные будут точно сходиться с Пингдом, потому что пингдом замеряет десктоп и на полной комплектации процессора и интернет-соединения.
    Такие дела...
    -
    5
    +
    Ответить
    • Артем Дорофеев
      8
      комментариев
      0
      читателей
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в...
      Спасибо за подробные дополнения по PageSpeed Insights, вы правы, он теперь действительно измеряет и скорость, стал на порядок информативнее в сравнении разных сайтов.
      Однако цель данной статьи - рассказать о распространенных "пугалках" в SEO-аудитах. Плохая оценка по PSI - все также не "клеймо" при продвижении сайта, которое нужно бросаться исправлять в первую очередь, иначе ТОП недостижим. Особенно если эту оценку рассматривать в отрыве от типа сайта и конкурентов в выдаче.
      -
      9
      +
      Ответить
      • Алексей Махметхажиев
        5
        комментариев
        0
        читателей
        Ну кстати, низкий пейджспид и скорость сайта сразу отрезает мобильный SEO трафик в Гугл. Это уже много раз подтверждено, когда берешь ускоряешь сайт и появляется мобильный трафик обратно. Вот тут как бы клеймо или нет и какая разница, если у конкурентов всё плохо, то что? Значит, что можно тоже терять на этом?)) Нет. Надо выводить в зеленую зону показатель педжспид. Точка.
        -
        1
        +
        Ответить
  • Гость
    0
    комментариев
    0
    читателей
    Гость
    больше года назад
    Спасибо за статью, хорошая. Увидел новый сервис - NeilPatel Backlinks и увы, он не впечатлил. Что подтверждается содержимым статьи ;-)
    -
    2
    +
    Ответить
  • Виталий Климин
    1
    комментарий
    0
    читателей
    Виталий Климин
    больше года назад
    Не знаю, я вот Page audit'ом пользуюсь, меня устраивает полтысячи анализируем параметров
    -
    1
    +
    Ответить
  • Алексей Махметхажиев
    5
    комментариев
    0
    читателей
    Алексей Махметхажиев
    больше года назад
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое де...
    Дело в том, что уважаемые SEO-специалисты опять недоразобрались в предмете про скорость загрузки.

    ПейджСпид замеряет именно скорость.

    Различия между ними есть и они влияют на результаты проверок, которые вы видите.
    И вот почему.

    Google PageSpeed Insights — использует тротлинг (искусственное замедление) сети и процессора при замере, поэтому замер получается с усредненными данными эмуляции среднестатистического юзера. Lighthouse тоже самое делает, потому что в PSI сейчас используется версия LH 5+.
    То есть при замере используется сеть 3G fast процессор эмулируется как у смартфона Нексус 5.
    ВАЖНО - Гугл специально замедляет условия для замера скорости, чтобы показать вам усредненный результат. Не бывает таких процессоров на телефонах, на котором замеряет GTmetrix или Pingdom. Там всё гораздо скромнее и Гугл об этом знает больше чем мы с вами.

    Gtmetrix — не замедляет замер ни сеть ни процессор. Проверка проходит на максимальном канале интернета и устройстве с максимально мощным процессором, по умолчанию. От этого можно заметить, что замер из Европы из Гугла может показать 12 секунд до интерактива, а гтметрикс покажет 3 секунды. Отсюда все заблуждения про то, что мол, смотрите как быстро показывает GTmetrix и какую "чушь" показывает Гугл.

    Есть еще такие сервисы, которые показывают очень хорошие цифры, но они не имеют ничего общего с правдой.

    Pingdom - тоже не замедляет проц и сеть. Использует очень быстрый сервер для замеров. У него всегда очень классные цифры по замерам, которые с реальностью не имеют ничего общего.

    Loading.express — использует замедление сети, как у Google PSI. Проверка идет для мобильной версии сайта. И замер идет из Москвы. Пока что этот сервис наиболее точно замеряет сайты из России.
    -
    10
    +
    Ответить
    • Trydogolik
      33
      комментария
      0
      читателей
      Trydogolik
      Алексей Махметхажиев
      больше года назад
      ""Loading.express — ...... И замер идет из Москвы.""
      Почему из Москвы? Сайт зарегистрирован из России (Алтайский край).

      На сервере cloudflare.com., а у него везде мелькают штаты prnt.sc/s6g0ij Вряд ли замер из Москвы. Проконсультируете?
      -
      0
      +
      Ответить
    • Trydogolik
      33
      комментария
      0
      читателей
      Trydogolik
      Алексей Махметхажиев
      больше года назад
      "То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного...."

      С Европой понятно. Хотя, сам не задумывался. Но, где бы его сервак еще находился как не в Европе.

      Замерять скорость для Mobil версией через 3G - тоже, логически подумать - ДА.  
      Целесообразней замерять на 3G, а не на 4G, когда часть России (про Европу не знаю) на 3G. Есть и вообще Е. Тоже кстати не задумыва...
      "То что Гугл замеряет из Европы - да, мало кто знает. Да и то, что Гугл замедляет устройство и сеть при замере с мобильного...."

      С Европой понятно. Хотя, сам не задумывался. Но, где бы его сервак еще находился как не в Европе.

      Замерять скорость для Mobil версией через 3G - тоже, логически подумать - ДА.  
      Целесообразней замерять на 3G, а не на 4G, когда часть России (про Европу не знаю) на 3G. Есть и вообще Е. Тоже кстати не задумывался над этим.

      Здравствуйте, Алексей.
      Подскажите, от куда эти данные приобрели по поводу каналов, замедления и т.п.? Логика или инфо источник отслеживаете? Нужен для работы.

      Заранее благодарен.
      -
      0
      +
      Ответить
      • Дмитрий Григорян
        7
        комментариев
        0
        читателей
        Дмитрий Григорян
        Trydogolik
        больше года назад
        Все данные берутся всегда у самих создателей. Не нужно читать вшивых форумов и блогов. В данном случае инфа с сайта гугл по данному сервису.

        developers.google.com/speed/docs/insights/v5/about?utm_campaign=PSI&utm_medium=incoming-link&utm_source=PSI&hl=ru-RU

        github.com/GoogleChrome/lighthouse/blob/master/docs/throttling.md
        -
        0
        +
        Ответить

Отправьте отзыв!
X | Закрыть