Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (495) 139-20-33
28 Августа 2019 в 15:49

BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита

Россия +7 (495) 139-20-33
9 28796
Подпишитесь на нас в Telegram
Константин Баньковский
Growth Hacker Netpeak Software

Часто бывает, что вы собрали очень много данных по сайту, есть выгрузки из 10 сервисов, 50 документов или вкладок браузера. Затем вы начинаете копаться в каждом из них отдельно и не видите полную картину происходящего. В подобном хаосе зачастую не получается сделать правильные выводы, приоритизировать задачи и ничего не упустить.

Я Growth Hacker в компании Netpeak Software. Мы разрабатываем программы для SEO-специалистов и вебмастеров. На конференции Baltic Digital Days 2019 в рамках SEO-потока я выступал с докладом: «Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита?».

Перейти к презентации спикера

В докладе я поделился многофункциональным инструментом, на создание которого меня вдохновил опыт нашей компании в разработке уже нескольких программ, общении с тысячами специалистов по всеми миру и с множеством проектов. Это не просто шаблон SEO-аудита, он позволяет найти точки роста, проблемные зоны сайта и визуализировать данные, что сможет вам помочь на этапе пресейла.

Концепт процесса комплексного SEO-аудита я показал на примере интернет-магазина, однако он применим ко всем видам сайтов.

Отмечу главные преимущества моего подхода:

  • Комплексность. Получаем данные о множестве факторов ранжирования (и не только) из различных источников в одном месте.
  • Скорость. Собираем данные и находим инсайты, проблемы и точки роста за минимальное количество времени.
  • Доступность и простота. Каждый может применять этот подход, можно даже делегировать его сотрудникам (Junior-специалистам), потому что он детально описан в мануале.
  • Кастомизируемость. В любой момент времени вы можете что-то добавить, что-то убрать, использовать какую-то уникальную наработку.

Преимущества подхода

1. Собираем данные по сайту воедино, чтобы ничего не упустить

Я хочу предложить решение этой проблемы в сервисе Google Таблицы, так как он простой, мощный и бесплатный. Наиболее полезен он будет для проектов до 30 тысяч страниц, так как есть ограничения по размеру документа. Если вы работаете над очень большими проектами, тогда сам подход будет вам полезен, но инструментарий в виде Google Таблицы не подойдет для вашего количества данных.

В таблицу я собираю все доступные данные и консолидирую всю информацию по странице из различных источников.

Вы можете использовать ее как уже готовый шаблон для работы или персонализировать под ваши процессы – «прикрутить» свои дополнительные модули / проверки / отчеты.

Шаблон SEO-аудита

2. Алгоритм работы с шаблоном

Алгоритм работы с шаблоном

Повторяем эти четыре шага с определённой периодичностью. Каждый шаг детально и односмысленно описываем в регламенте работы, минимизируя шанс что-либо упустить, сделать неправильно. Пройдемся детальнее по каждому шагу.

Определяем типы страниц и количество товаров на листингах

Итак, у нас есть сайт (я для примера использую интернет-магазин tricolor.com.ua), который нужно просканировать и разметить типы страниц. В случае с интернет-магазином стоит дополнительно подтягивать количество товаров. Для этого можно использовать данные парсинга по микроразметке или другое условие кастомного парсинга.

Страницы нужно разбивать по типам и/или категориям, чтобы потом удобно сегментировать данные. Тип страницы и/или категорию чаще всего можно определить по URL. Например, карточка товара находится по URL-адресу, который содержит сегмент /product/. Когда так нельзя сделать, используйте парсинг, чтобы найти на разных типах страниц уникальный код, который и отличает этот тип.

На различных проектах типы страниц и категории будут отличаться, поэтому определите изначально, как вы хотите сегментировать страницы. Например, если на сайте есть листинги для различных городов, тогда есть смысл добавить тег города. Если есть страницы, которые содержат все товары определенного бренда, тогда есть смысл добавить тег листинга бренда.

Определяем типы страниц и количество товаров на листингах

Проверяем индексацию и наличие страницы в картах сайта

Наличие страниц в индексе поисковых систем можно проверить с помощью Netpeak Checker, Rush Analytics, overlead.me, других вариантов.

Но проверка индексации стоит денег. Поэтому можно немного сэкономить на этой проверке и сразу считать проиндексированными страницы, которые получали показы или трафик за последнюю неделю.

Когда вы анализируете страницы, которые не попали в индекс, нужно сразу проверить, есть ли они в карте сайта. Дополнительно просканируйте все страницы из карты сайта, чтобы найти среди них проблемные (битые, редиректы, закрытые от индексации), которые затем замените на целевые.

Проверяем индексацию и наличие страницы в картах сайта

Определяем категории для сегментации по важным параметрам

Сюда подтягиваем основные On-Page данные (внутренние входящие ссылки, скорость ответа сервера, глубину URL, количество слов, инструкции индексации, метатеги, другие). Советую сразу сделать категории по этим показателям, чтобы удобнее сегментировать данные и строить диаграммы.

Определяем категории для сегментации по важным параметрам

Выгружаем и определяем качество ссылок

Переходим к внешним факторам. Выгружаем данные по ссылкам из Serpstat, Ahrefs, MegaIndex, сводим количественный показатель ссылок на каждую страницу. Затем важно видеть, сколько из них хороших, потому нужен столбец, который отфильтрует сквозные ссылки, nofollow, некачественные (DR, UR, другие по вашему условию).

Дополнительно это даст понимание о заспамлености страницы некачественными ссылками.

Выгружаем и определяем качество ссылок

Оцениваем видимость для приоритизации продвижения страниц

Если у вас собрана чистая семантика, по которой вы собираете данные по позициям и частотности – отлично, импортируйте ее в таблицу, чтобы определить видимость каждой страницы.

Если семантики нет (например, вы на этапе пресейла или анализируете конкурента), тогда можно данные по ключам выгрузить из сторонних сервисов, как это сделал я. Такими сервисами могут быть Serpstat, Spywords, keys.so, Google Search Console и/или Яндекс.Вебмастер, если есть доступы.

Например, ниже я вывел суммарную частотность запросов страниц и показы из Search Console. По этим показателям я могу приоритизировать страницы.

Оцениваем видимость для приоритизации продвижения страниц

Определяем потенциал роста страниц по количеству запросов в ТОПе

Дальше считаем количество ключей, по которым страница показывается в ТОП 3 и ТОП 10, чтобы оценить потенциал роста страницы. Позиции можно изменять в зависимости от текущих позиций проекта, например, для кого-то это будет ТОП 10 и ТОП 20. Важно учитывать именно небрендовые запросы.

Определяем потенциал роста страниц по количеству запросов в ТОПе

Подтягиваем данные по трафику и конверсиям

С помощью расширения Google Analytics для Google Таблиц я выгружаю данные по трафику и конверсиям в документ, а потом консолидирую со страницами с помощью VLOOKUP (вертикальный поиск, ВПР). Важно смотреть не только трафик, но и конверсионность.

Подтягиваем данные по трафику и конверсиям

Итого у нас есть минимальный набор данных для комплексного анализа страниц, который можно дополнить логами сервера, данными из CRM или релевантными вашему проекту и процессам параметрами.

Источники данных для аудита

Чтобы упростить внедрение такого подхода в ваши процессы, я подготовил детальный пошаговый мануал процесса сбора данных. Копируйте себе, дополняйте, модифицируйте под свои задачи, процессы, инструменты. Буду рад, если дадите обратную связь в комментариях о том, что еще хотели бы видеть в отчете и регламенте.

Регламент по сбору данных в шаблон SEO-аудита

Используем API для ускорения сбора данных

Вы можете выгружать данные вручную и потратить на это много времени, а можете собирать их по API за считанные минуты, особенно из сервисов Google Analytics, Я.Метрики, Google Search Console, Я.Вебмастера. Я описал в регламентe действия для выгрузки данных + нюансы для обхода сэмплирования.

P.S. Для Excel есть надстройки, которые выгружают данные (PQGoogleAnalytics и PQYandexMetrika от Максима Уварова).

Используем API для ускорения сбора данных

Алгоритм добавления новых данных

Данные из разных сервисов нужно собирать на новые листы в формате URL → Данные, чтобы потом использовать VLOOKUP (он же ВПР, вертикальный поиск) и подтягивать в основную таблицу информацию по каждому URL.

Данные, которые вы не собираетесь периодически заменять (например, по ссылкам), после подтягивания формулой советую скопировать и вставить только значения, чтобы не загружать сильно таблицу.

Алгоритм добавления новых данных

Небольшая фишка: если в сервисе нет нужного вам отчета, но есть API, на помощь всегда приходит скрипт ImportJSON, который поможет распарсить API-ответ прямо в Google Таблицы.

ImportJSON позволяет получить данные API-ответа в таблицу

Чтобы посмотреть, как это выглядит, перейдите в документ с шаблоном такого отчета.

Вывод

Мы собираем данные быстро из множества доступных нам источников. Шаблон определяет ошибки, точки роста, визуализирует данные. Можно использовать также Data Studio – тогда данные автоматически подтягиваются для формирования красивых отчетов. Вам остается сделать выводы и помочь клиенту увидеть проблемы, их решение и точки роста, т.е. качественно презентовать вашу работу.

Полезные материалы:

  1. Мануал по построению отчёта в Data Studio.
  2. Мануал по сбору данных для SEO-аудита.
  3. Шаблон SEO-аудита.

Если материал был вам полезен, добавляйтесь в друзья на Facebook, буду рад ;) 


Нужно больше подробностей? Скорее всего, они есть в презентации спикера.


Читайте также:

9 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • Feth
    1
    комментарий
    0
    читателей
    Feth
    больше года назад
    Тот момент, когда от статьи в интернете получаешь больше полезных знаний и навыков, чем от своего начальства. По статьям нетпиковцев можно учебник про SEO уже сшивать, ребята молодцы. Спасибо, что делитесь информацией.
    -
    2
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Feth
      больше года назад
      Спасибо за приятные слова! Буду и дальше делиться наработками ;)
      -
      0
      +
      Ответить
  • Arseniy
    1
    комментарий
    0
    читателей
    Arseniy
    больше года назад
    Получилось у кого скопировать и открыть этот шаблон SEO-аудита?
    Через Google Sheets никак не может обработать, "Google Docs encountered an error. Please try reloading this page, or coming back to it in a few minutes."
    Не слишком он объемный? Может удалить большую часть данных из примера?
    -
    0
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Arseniy
      больше года назад
      Иногда такое случается, попробуйте следующий способ:
      1. скачать документ в формате .xlsx,
      2. импортировать его в новую таблицу.

      Может на 5 минут подвиснуть или выдать ошибку, но потом загрузится. Если не будет получаться, напишите в личку на ФБ, я отправлю лично.

      bit.ly/FB-Kosta-Bankovski
      -
      0
      +
      Ответить
  • Константин Даткунас
    4
    комментария
    0
    читателей
    Константин Даткунас
    больше года назад
    Так понимаю это конспект доклада, а не доклад. Не очень понятно что куда
    -
    0
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Kosta Bankovski
      Константин Даткунас
      больше года назад
      Да, это конспект, я постарался собрать самые важные моменты. Скоро выйдет ряд статей у нас на блоге Netpeak Software, там будет более развёрнутая информация.
      -
      0
      +
      Ответить
  • ГостьПавел Журавель
    1
    комментарий
    0
    читателей
    ГостьПавел Журавель
    больше года назад
    скажите, зачем мне пользоваться этим сервисом, если я могу использовать уже давно известный и проверенный Screeming Frog?
    -
    5
    +
    Ответить
    • Kosta Bankovski
      4
      комментария
      0
      читателей
      Вы можете использовать и Screaming Frog для сбора данных, в докладе я не привязывался именно к Netpeak Spider, но раз вы сами спросили ;)

      Есть почти 2 десятка преимуществ у использования именно нашего краулера, например, оптимальное потребление оперативной памяти (очень полезно во время работы с большими сайтами), управление параметрами сканирования (чтобы не собирать лишнее), сегментация полученных данных (для детального исследования сайта под разными уг...
      Вы можете использовать и Screaming Frog для сбора данных, в докладе я не привязывался именно к Netpeak Spider, но раз вы сами спросили ;)

      Есть почти 2 десятка преимуществ у использования именно нашего краулера, например, оптимальное потребление оперативной памяти (очень полезно во время работы с большими сайтами), управление параметрами сканирования (чтобы не собирать лишнее), сегментация полученных данных (для детального исследования сайта под разными углами) и др.

      Да и в целом доклад и статья были не про инструменты краулинга или ещё какие, а о комплексном подходе в сборе и анализе данных. Я подготовил таблицу и регламент работ, которые могут помочь многим специалистам, инструменты тут на ваш вкус, главное, чтобы они предоставляли нужные данные.
      -
      0
      +
      Ответить
  • Иван
    11
    комментариев
    0
    читателей
    Иван
    больше года назад
    Наука, однако )
    -
    2
    +
    Ответить

Отправьте отзыв!
X | Закрыть