Мы все стремимся быть первыми, видеть рост позиций и трафика, получать прибыль и завоевывать рынок. Но мы не всегда добиваемся желаемого результата, проводя огромную работу и тщательно прорабатывая все направления. В большинстве случаев это происходит из-за того, что в процессе кто-то переступил грань, отделяющую оптимизацию от переоптимизации. Мы отошли от правила «ориентироваться на пользователя» и качества для поисковой системы, пытаясь добиться хороших показателей ранжирования. Дальнейший материал подготовлен на основе собственного опыта и часто встречающихся вопросов из серии – «Почему сайт не лезет вверх?».
1. Ссылки
К счастью, эта проблема встречается все реже. Спасибо Яндексу за его предупреждения и показательную порку на весь Рунет!
- Старая ссылочная масса. Еще со времен массовых закупок с известных бирж. Избавляйтесь от нее! Она уже давно не несет никакой пользы. В сети полным-полно исследований и кейсов, подробно рассказывающих о ее бесполезности и вреде. Умозаключение, основанное на личном опыте – после чистки ссылочной массы, конечно же, с профессиональным подходом, достигался стабильный рост позиций в Яндексе/Google.
Как правильно отфильтровать и снять, я расписывать не буду, дабы не отрастить бороду за время моего монолога. Лучше кратко:
- Наличие доноров в биржах
- Пересечения с конкурентами
- Спамность
- Траст
- тИЦ (хоть уже и для ЯК, но там ранжирование тоже по качеству)
- Тематика
- Анкоры
- ГЕО
- В идеале – контроль переходов и т.д.
- Свежие закупки. Многие продолжают наращивать ссылки. Более аккуратно, но в тех же биржах. Учитывая определенные ограничения, они стараются сделать акцент на самых важных ключевых фразах. Если увлечься, можно получить переспам по анкорам или направленности. Такие недоработки отлично контролируются поисковиками. Google просто игнорирует подобные ссылки, спасибо за это новшество, а Яндекс выбирает – игнор или фильтр, хотя я уже давно не видел очередного набега «Минусинска».
Наращивайте ссылочную массу вдумчиво. Выбирайте качественных доноров, размещайте интересные материалы, которые будут читать и которыми станут делиться, переходить по ним на ваши страницы и достигать поставленных целей. Это благотворно повлияет не только на SEO, но и на другие показатели – PR, конверсию и т.д.
2. Текстовый контент
Переспам и переоптимизация распространенная проблема. Пытаясь засунуть в текст все необходимые ключи, даже при условии подготовки материала для пользователей, мы часто увлекаемся и спускаем в унитаз все наши старания. На выходе получаются непонятные формулировки и тавтология, читать становится невозможно, поисковики ранжируют еще ниже, а мы продолжаем удивляться, почему не сработал новый уникальный контент.
С введением нового алгоритма необходимость в подобном контенте практически отпала сама собой. Достаточно писать качественные тексты с вхождением основных ключевых слов, задающих тематику. Не бойтесь использовать синонимы и нестандартные речевые обороты, таким способом вы сможете привлечь дополнительный трафик.
3. Перелинковка
Стремясь передать вес на нужные страницы, мы погружаемся в процесс и используем одни и те же точные анкоры. Ситуация похожа на проблему с закупкой ссылок. На 2–3 страницы ведет +100 500 ссылок из контента с одним и тем же точным анкором. В результате мы получаем внутренний ссылочный переспам и торможение, которое приводит к падению позиций.
При перелинковке используйте различные анкорные и безанкорные ссылки, в том числе изображения. Для настройки задействуйте разные страницы, в том числе не продвигаемые. Качественная перелинковка должна быть более равномерной, следовать логике и отвечать запросу удержания посетителя на сайте.
4. Изображения
Тут я столкнулся с двумя направлениями:
- Вес и качество изображений. Дело доводят до абсурда, слепо следуя рекомендациям поисковиков. Периодически сжимают изображения до полной потери качества, в результате чего страдает верстка, и в итоге мы видим 8-битный сайт. Как результат – ухудшение юзабилити, рост процента отказов, а в конкурентных тематиках возникают проблемы с позициями. Сжимайте изображения до необходимого размера, не больше. Следите за качеством и информативностью. Человек любит глазами, поэтому визуальная часть вашего сайта должна быть привлекательной.
- Не так давно ко мне обратились с просьбой посмотреть, нет ли проблем с оптимизированной страницей, так как запрос, стабильно находящийся в ТОП-10 выдачи, стал неожиданно падать и вылетел за пределы ТОП-50. На первый взгляд страница была качественной, с настроенными тегами и уникальным полезным контентом, с изображениями в хорошем разрешении и видеоматериалами. Взглянув чуть глубже, я обнаружил переоптимизацию атрибутов изображений. Практически все alt и title были с одним и тем же анкором. Который был…тадааам!... падающим ключом! Выяснили ситуацию. Оказалось, что владелец ресурса просто старался подтянуть запрос в ТОП-3, оптимизировав страницу в соответствии с требованиями поисковиков, но перестарался. Вычистив и поправив лишнее, мы получили постепенный и уверенный возврат утраченной позиции.
5. Разбивка ключевых фраз
Переизбыток страниц одной тематики – это серьезная проблема!
В стремлении проработать наибольшее количество ключей, часто создаются новые однотематические страницы. Предпосылкой служит либо неверный анализ выдачи или его отсутствие, либо излишнее усердие. Абстрактный пример для общего понимания:
Сайт игрушек, на оптимизации ключи группы «говорящий хомяк».
Страницы:
Говорящий хомяк
Говорящий хомяк в Москве
Говорящий хомяк –цены
Говорящий хомяк из меха
Говорящий хомяк для детей
В результате на сайте несколько страниц идентичного контента с пересечениями по основному ключу. В выдаче постоянно меняются релевантные страницы. Успех сомнителен.
Смешно? Не верите? А мне, и могу поспорить не только мне, неоднократно приходилось разгребать результаты подобных стараний, объединяя, перенося, закрывая и переписывая материалы. В данном случае ТОП возможен только при правильном распределении ключевых фраз. Не перемудрите.
6. Настройка robots.txt
Отнесу это к теме статьи, хотя скорее тут просто знания.
Стремясь оптимизировать вашу выдачу, запрещая к индексации лишние, мусорные и технические страницы, под запрет также попадают и папки со скриптами, стилями и так далее. В результате Google начинает отмечать проблемы с загрузкой некоторых элементов, что никак не характеризует качество ресурса.
В этой ситуации могу посоветовать внимательно и избирательно относиться к настройке robots.txt. Правильное решение – продуманная сборка сайта с изначальным минимумом проблемных страниц, а также верное распределение элементов по папкам. Да, встречались и такие косяки.
7. Юзабилити
Как это выглядит:
- Надо добавить онлайн-консультант
- А еще форму обратного звонка
- И всплывающее окно: «Вы ничего не нашли за 20 секунд?»
- И баннер! А лучше несколько! Больших и красочных!
- Забыли напомнить про супер-акцию
Блин! У вас сайт или игра под названием «Закрой все всплывающие окна?». Конечно, до посетителя нужно донести всю информацию, указать на наличие удобных для него сервисов, добиться его удержания и переходов. Но все эти прелести должны быть ненавязчивыми и лаконичными. При настройке подберите нужные размеры и определите места, где они будут видны и не помешают пользователю. Сделайте так, чтобы ваша акция не всплывала через каждые 5 секунд просмотра.
С помощью Метрики можно отследить действия посетителей и определить, на какой стадии и через сколько времени необходимо всплывать, мигать и напоминать.
Анализируйте, экспериментируйте, но не увлекайтесь. Иначе, сделаете слишком хорошо :)