Хотим обратить внимание всех, кто игнорирует показатели анализаторов поисковых систем и считает, что нет ничего страшного, если сайт грузится дополнительную секунду или имеет лишний мегабайт веса:
- Во-первых, число мобильных пользователей постоянно растет. Устройства не в состоянии быстро обрабатывать сайты, имеющие значительный вес страниц, несмотря на все свои возможности.
- Во-вторых, Google, к примеру, разделяет мобильную и десктопную выдачи. Это значит, что ваши позиции в мобильной выдаче будут ниже при плохо оптимизированном сайте. Речь идет не только об адаптивной верстке, но и грамотном распределении элементов JS и CSS на странице, скорости загрузки сайта и т.д.
- В третьих, не у всех есть безлимитный интернет, даже с учетом глобального технического развития нашей планеты. Лишние мегабайты не в почете, об этом нужно помнить.
- В четвертых, пользователи с каждым годом становятся искушеннее и капризнее: дополнительная секунда загрузки, непонятное меню или устаревший дизайн – это логичная причина, чтобы покинуть страницу.
Для наглядного примера мы взяли сайт крупной компании, оказывающей услуги в области контроля качества строительства крупных объектов. Задача по продвижению сайта была стандартной – добиться положительной динамики и достичь ТОП 10 выдачи Яндекс и Google по запросам выбранного семантического ядра.
Проблема #1
Большинство подобранных запросов, ввиду особенности тематики, средне и низкочастотные. При этом ядро было приличного размера, а ключевые фразы распределялись по сайту неравномерно. Значительную роль в актуальности запросов сыграло видение клиента и интерес к определенным тематикам. В итоге на некоторых страницах подобралось слишком много ключевых фраз для продвижения – до 25, что при классических методах оптимизации грозило переспамом в текстовом контенте или отсутствием позиций из-за недостатка вхождений. Создание новых тематических страниц было невозможным – перебивалась релевантность основной, в результате чего были нестабильны позиции, а смена релевантной страницы в выдаче достигала 9–11 раз в месяц.
Проблема #2
На этапе создания сайта не учли множество параметров, оказывающих влияние на SEO – имели место классические проблемы с дублями страниц, техническими параметрами в URL, неверно настроенная пагинация и т.д. Отдельным недостатком была крайне низкая скорость загрузки сайта – значительное отличие от «норматива менее 2 сек». У нас была серьезная проблема с позициями в Google, учитывая, какое влияние оказывает техническая настройка сайта на ранжирование в этой поисковой системе.
В силу специфики тематики большой процент заказов шел именно с Google. Приняли решение: «Сначала будем вытаскивать позиции в нем». Частичную роль сыграла быстрая переиндексация изменений и честная политика поисковика: «качественный сайт – выше позиции».
Решение
Мы понимали, что многие ключевые слова ввиду низкой частотности должны «выстреливать» при минимальном вмешательстве со стороны оптимизатора. Продвижение было построено следующим образом:
1. Выявление и устранение технических ошибок на сайте.
2. Оптимизация текстового контента, наполнение страниц сайта качественными изображениями.
3. Перелинковка страниц сайта.
4. Анализ и настройка мобилопригодности ресурса.
5. Оптимизация скорости загрузки.
После выполнения первых трех пунктов – не будем заострять на них внимание – и перед наполнением ресурса мы провели масштабный анализ конкурентов.
Задача анализа – получить максимальное количество данных по уровню технической оптимизации и особенностям наполнения ресурсов в ТОПе выдачи. Комплекс проведенных работ:
- Выделение пересекающегося списка конкурентов по ВЧ-фразам в ТОПе поисковых систем. Выбрали 10 сайтов. Два из них отпали сразу, как заведомо некачественные. Что они делали в ТОПе выдачи, так и осталось загадкой.
- Сравнительный технический аудит сайтов. Взяли около 40 основных параметров, таких как:
o Настройка зеркал
o Наличие дублей
o Количество страниц в выдаче
o Оптимизация метатегов и заголовков
o Скорость загрузки страниц
o Наличие и оптимизация изображений
o Настройка перелинковки и т.д.
На этом этапе мы получили данные по общему уровню технической настройки и оптимизации ресурса, а также выделили сильные и слабые стороны конкурентов.
- Анализ контента конкурентов:
o Объем размещенного материала
o Уникальность текстов
o Наличие изображений и видеоматериалов
o Структура страниц
На основе полученного материала мы провели работы по наполнению ресурса и технической оптимизации: копирайтинг под конкретную тематику, согласование текстов и корректировки с клиентом. Для страниц ресурса были сделаны новые изображения, предварительно оптимизированные перед размещением. В результате мы получили качественные, объемные, уникальные и информативные страницы. Внесенные изменения помогли достигнуть часть позиций. В дальнейшем, после настройки перелинковки, к пределам ТОПа Яндекса подтянулось большинство ключевых фраз.
Ситуация в Google расстраивала – проведенные действия не возымели результата, требуемые позиции не были достигнуты.
Не секрет, что Google придает большое значение именно техническому состоянию сайта, чистоте кода, скорости загрузки страниц и т.д. В этом направлении есть много исследований, результаты которых можно найти на просторах интернета, интересное исследование «We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO». Комментарии от Google можно найти в их блоге. К тому же недаром Search Console имеет более обширный функционал инструментов, связанных с улучшением сайта – маркеры разметки, PageSpeed Insights и т.д.
Вернемся к оптимизации сайта
Подошла очередь серьезной проработки скорости загрузки сайта. Анализ показывал неутешительные результаты:
Основной проблемой являлась оптимизация большого количества изображений. Из-за них лишний вес страниц достигал 6–7 Мб. Вопрос был не в сжатии изображений, а в их количестве. Требовалось оптимизировать и найти место нескольким сотням файлов. Индивидуальная проработка и размещение по всему сайту занимало слишком много времени. Изображения, которые нам предлагает PageSpeed Insights, сильно сжаты, что приводит к падению качества. Плохой вариант, хотя и экономит много времени.
Командой разработчиков со стороны клиента был установлен плагин PageSpeed от Google. После его настройки показатель оптимизации страниц улучшился и достиг 60-65%. Выделю плюсы и минусы работы плагина:
+ После его настройки отпала необходимость в ручной обработке изображений, сжатие происходило в автоматическом режиме. При этом на сервере они оставались в первоначальном качества.
+ Значительное сокращение веса изображений – с 300 Kb до 35–45 Kb, это в среднем. Ощутимое сжатие объема, если учитывать, что на каждой странице совокупный вес изображений достигал 5–6 Mb.
- Низкое качество изображений. Про отличное фото можно было забыть. Оставили результат до появления лучших решений.
Как итог – рост позиций в Google.
Но возникли сложности со стабильной работой плагина. Тут уже проблема была на стороне CMS. От плагина пришлось отказаться. Результатом такого решения стали старые, не оптимизированные изображения на ресурсе, а также полный откат позиций в Google. Кстати, Яндекс на эти изменения реагировал на удивление спокойно. Может быть, просто не успел все переиндексировать.
Изображения сжимали вручную, стараясь сохранить качество. Так как размещение происходило поэтапно, ожидаемого «выстрела» не произошло, но был достигнут постепенный рост позиций, их увеличение в ТОП 10 Google.
На текущий момент оптимизация изображений на продвигаемых страницах и основных разделах практически завершена. В результате ручной обработки с учетом сохранения качества вес файлов оказался снижен не более чем в 2 раза. Положительная динамика в Google сохраняется. Показатель оптимизации скорости загрузки страниц лучше, чем после работы плагина:
Максимальные показатели по изображениям не достигнуты из-за сохранения приемлемого качества. Визуальная составляющая тоже важна. После настройки кэша браузера с корректировкой JavaScript и CSS планируем достигнуть значений выше 85%.
Проведенную оптимизацию скорости загрузки страниц можно считать наглядным экспериментом зависимости позиций в Google. Яндекс на подобные изменения реагирует не так быстро и не столь резко. Для достижения результатов потребуется длительное время – до 1–2 месяцев, поэтому оптимизация сложнее поддается анализу. Google учитывает корректировки быстрее, в отдельных случаях результат можно получить уже на 2–3 день. Все зависит от особенностей алгоритма конкретной поисковой системы.
Конечно, настройка только технических параметров сайта и его быстродействия – не панацея. Нельзя ограничиваться только этими элементами, но в совокупности с наполнением ресурса, оптимизацией текстового контента, тегов, настройкой перелинковки и многих других факторов улучшение показателей скорости загрузки даст дополнительный результат в первую очередь для Google. Повторимся, недаром эти инструменты представлены в функционале Google для вебмастеров.