Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (495) 139-20-33
6 Декабря 2017 в 13:23

Как хранить данные по оптимизации сайта: сводная таблица

Россия +7 (495) 139-20-33
9 29746
Подпишитесь на нас в Telegram
Руслан Фатхутдинов
Веб-аналитик агентства Реаспект
Редактор Telegram-канала

В обсуждении с коллегами из других компаний был поднят вопрос о том, как удобно хранить данные по оптимизации сайта (семантическое ядро, метатеги, данные по ТЗ и их внедрению и т.п.). Я предложил свое решение этой задачи, которое мне кажется наиболее удобным для работы и восприятия.

Я называю это решение «Сводная таблица оптимизации сайта» — это хабовая таблица, агрегирующая в себе наиболее важные данные, касающиеся оптимизации сайта и помогающая контролировать его продвижение.

О том, какие данные содержатся в данной таблице, расскажу в этой статье.

1. Инструменты

Сразу оговорюсь, что мы работаем в облаке Google Drive и его приложениях. Этому есть несколько причин:

  1. С проектом работает несколько специалистов (оптимизатор, проект-менеджер, копирайтеры и т.д.). Работать в облаке значительно быстрее, чем перекидываться копиями документов по почте.
  2. Иногда данные могут потребоваться, когда специалист физически находится не у рабочего компьютера, а телефон или планшет всегда под рукой.
  3. Возможность легкой миграции данных между документами.

У нас есть стандартизированная структура, как хранить данные по проектам в Google Drive, чтобы можно было взять нужную информацию, не отвлекая других от работы.

Структура выглядит следующим образом:

  • У каждого специалиста есть папка «Проекты».
  • Для каждого проекта заводится своя папка с соответствующим названием.
  • Внутри папки проекта есть несколько стандартных подпапок и уникальные папки под потребности проекта.

Рис. 1 Структура папки проекта.png

Рис. 1 Структура папки проекта

2. Структура таблицы

Мы составляем сводную таблицу в начале работы над проектом и дополняем ее на протяжении всей работы.

Стандартные столбцы, используемые в таблице:

  • URL — адреса страниц. Данные из столбца также могут использоваться в качестве якоря для функций (ВПР, СУММЕСЛИ и т.п.);
  • Структура — место страницы в структуре сайта. Аналог классических хлебных крошек;
  • Тип — к какому типу относится страница. Особенно актуально для интернет-магазинов, в которых мы выделяем такие типы, как «Каталог», «Тег», «Фильтр», «Карточка», «Информационная» и «Вспомогательная»;
  • H1 — h1 заголовок страницы;
  • Title — title страницы;
  • H2 — список заголовков h2 для страницы;
  • Текст — пометка о статусе текста на странице в формате «Есть», «Нет», «ТЗ»;
  • Месяц — когда в последний раз производились (в) работы или планируются проводиться (п) работы над страницей, в формате “ММ.ГГГГ”
  • Семантическое ядро — в столбце выкладывается ссылка на файл, в котором содержится семантическое ядро для соответствующего раздела.

Кроме описанных столбцов, в зависимости от задачи, таблица дополняется и другими данными, например:

  • Запрос — основной запрос для страницы;
  • Группа столбцов по частотностям запроса — в зависимости от сайта, могут содержаться как классические частотности (Ч, “Ч”, “!Ч”, “[!Ч]”), так и с наложением коэффициента по поисковым системам;
  • Группа столбцов сезонности за последние 12–24 месяца;
  • И другие.

С шаблоном таблицы вы можете ознакомиться по ссылке.

3. Заполнение первичных данных

Заполнить таблицу первичными данными можно и руками.

Но данный способ не всегда оптимальный, поэтому мы в своей работе используем Screaming Frog SEO Spider.

Я буду показывать пример работы, основываясь на взаимодействии с данным инструментом.

3.1. Парсим данные с сайта

Перед началом парсинга отключаем все бесполезные функции, которые нам не понадобятся (Configuration — Spider):

  • Проверку изображений;
  • Проверку ресурсов (js, css и swf);
  • Проверку внешних исходящих ссылок.

Рис. 2 Настройка Screaming Frog.png

Рис. 2 Настройка Screaming Frog

Далее копируем XPath корневого блока хлебных крошек на сайте, если они там есть.

Для этого:

  1. Открываем внутреннюю страницу, на которой есть хлебные крошки в Google Chrome.
  2. Открываем консоль (Ctrl + Shift + i).
  3. Выделяем инспектором корневой блок хлебных крошек.
  4. В контекстном меню выбираем Copy XPath.

Рис. 3 Копирование XPath.png

Рис. 3 Копирование XPath

  1. В Screaming Frog переходим в Configuration — Custom — Extraction.
  2. В открывшемся окне:
  • Выбираем XPath;
  • Вставляем скопированный путь;
  • Extract Text.

Рис. 4 Extraction в SCSS.png

Рис. 4 Extraction в SCSS

И парсим сайт.

3.2. Сведение данных

После того как сайт спарсится, выгружаем отчеты:

  • Информация по HTML (Internal — HTML);
  • Хлебные крошки (Custom — Exctraction).

И переносим данные отчета в сводную таблицу.

Чтобы не перепутались данные, и колонки не «поехали», можно воспользоваться функцией ВПР.

Нас интересуют:

  • Url;
  • H1;
  • Title;
  • Хлебные крошки.

Рис. 5 Заполненная первичными данными таблица.png

Рис. 5 Заполненная первичными данными таблица

Пример таблицы, заполненной первичными данными по ссылке, на вкладке «Пример».

Алгоритм дальнейшей работы полностью зависит от типа проекта, цели продвижения и выбранной стратегии.

Заключение

После внедрения данного инструмента в свою работу мы решили многие задачи, которые остро стоят перед каждым специалистом (все метатеги в одном месте, контроль выполнения задач и т.п.).

Надеюсь, вам подобная сводная таблица тоже будет полезна.

Если у вас есть вопросы, готов их обсудить. 

9 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • Alexander Khayev
    2
    комментария
    0
    читателей
    Alexander Khayev
    больше года назад
    Такой же отчет автоматом можно получить в Семониторе, модуль СайтАнализатор, чем успешно и пользуюсь. Он же покажет битые ссылки (внутренние и внешние), нарисует вам xml и html карты сайта и поможет проанализировать заголовки сервера по нужным страницам. А что еще нужно? :)
    -
    3
    +
    Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Руслан Фатхутдинов
      Alexander Khayev
      больше года назад
      Спасибо за наводку, интересный инструмент. На сколько я понял, это десктопный софт?
      Но, как я говорил в статье, из-за того что над проектом может работать несколько специалистов, приходится все хранить в облаке.
      Плюс, ко всему, обычно, к этому отчету я подгружаю дополнительные данные, например:
      — Сезонность
      — Эталонный спрос страницы
      — Посещаемость страницы за месяц
      — Какие-то дополнительные заметки по экспериментам
      И другие :)
      -
      1
      +
      Ответить
  • Сергей Иванов
    57
    комментариев
    0
    читателей
    Сергей Иванов
    больше года назад
    Почему-то не продвигается сайт. В чем может быть ошибка?
    -
    -8
    +
    Ответить
  • Дмитрий
    1
    комментарий
    0
    читателей
    Дмитрий
    больше года назад
    Руслан, спасибо за статью. Расскажите подробнее какие инструменты для seo оптимизации используете лично вы и ли у вас какой-нибудь to do list
    -
    1
    +
    Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Руслан Фатхутдинов
      Дмитрий
      больше года назад
      Спасибо за вопрос. В наборе софта, наверное, я не уникален.
      — KeyCollector для обработки и хранения семантики
      — KeyAssort для кластеризации запросов
      — FastTrust для анализа ссылочного
      — Axure для рисования макетов
      — TextMate для регулярок
      — ScreamingFrog для технического анализа
      — Log File Analyser для отслеживания обхода страниц ботами
      — Xmind для визуализации структуры сайта
      — Seo Excel для "доработки" семантики
      — Разные ...
      Спасибо за вопрос. В наборе софта, наверное, я не уникален.
      — KeyCollector для обработки и хранения семантики
      — KeyAssort для кластеризации запросов
      — FastTrust для анализа ссылочного
      — Axure для рисования макетов
      — TextMate для регулярок
      — ScreamingFrog для технического анализа
      — Log File Analyser для отслеживания обхода страниц ботами
      — Xmind для визуализации структуры сайта
      — Seo Excel для "доработки" семантики
      — Разные сервисы: rush-analytics, pixel tools, serpstat, keys.so
      Из задачников, это google keep.
      Надеюсь, что-нибудь интересное для себя найдете :)
      -
      4
      +
      Ответить
  • Антон Меренков
    1
    комментарий
    0
    читателей
    Антон Меренков
    больше года назад
    Почему-то не запускается парсинг. В чем может быть ошибка?
    -
    0
    +
    Ответить
    • Ирина
      1
      комментарий
      0
      читателей
      Ирина
      Антон Меренков
      больше года назад
      Парсинг, наверное, не запускается потому что опция
      "В Screaming Frog переходим в Configuration — Custom — Extraction" доступна только при покупке лицензии за 149 евро, а в бесплатной версии - нет.
      -
      1
      +
      Ответить
    • Руслан Фатхутдинов
      19
      комментариев
      0
      читателей
      Пришлите что пишет screaming frog в меню "Help" — "Debug".
      Разберемся вместе.
      -
      0
      +
      Ответить
    • Александр
      3
      комментария
      0
      читателей
      Александр
      Антон Меренков
      больше года назад
      Почему-то не заводится машина. В чем может быть ошибка?
      -
      11
      +
      Ответить

Отправьте отзыв!
X | Закрыть