На сегодняшний день основными тенденциями поисковых систем, в частности Яндекса, стали усложнение алгоритмов ранжирования и уменьшение значимости ссылочной составляющей. Правило «хочешь лучше результат — купи больше ссылок!» перестает работать. После ввода алгоритма «Снежинск 1.1.» SEO-сфера так и не выработала единого видения на способы поискового продвижения.
Технический аудит помогает повысить эффективность продвижения, т.к. именно с техническим состоянием продвигаемого сайта связаны высокие риски неудачи. Очевидно, что упреждать наступление рисков более выгодно, чем бороться с последствиями их наступления.
Об актуальности аудита уже было описано в одной из статей SEOnews. Я, в свою очередь, расскажу о системном подходе к аудиту сайта при подготовке к поисковому продвижению.
Перед тем, как окунуться с головой в поисковое продвижение, вам необходимо определить текущие состояние сайта и убедиться в отсутствии помех, чтобы получить ответ на основный вопрос — какие потребуются усилия для продвижения этого сайта?
Последовательность действий при предварительном аудите сайта заключается в определении статистических показателей:
Это основное требование поисковых систем к сайту. Автоматизировать определение СДЛ проблематично и нецелесообразно, т.к. опытный оптимизатор сделает это быстро. Но процесс определения можно легко систематизировать, сведя его к проверке ряда факторов, показывающих, что сайт сделан не для людей:
Выявление любого из вышеперечисленных факторов существенно затруднит дальнейшее продвижение сайта в поисковых системах.
Существует мнение, что возраст сайта, точнее, возраст индекса контента сайта, влияет на ранжирование в поисковых системах. Действительно, если провести исследование по большому списку запросов, то среднее значение возраста сайта будет уменьшаться от ТОПа выдачи, двигаясь вглубь.
Возраст сайта вы можете определить по дате регистрации домена, например, тут.
От возраста сайта будет зависеть стратегия продвижения и скорость достижения результата. Продвигать сайт с возрастом до года по высококонкурентным запросам будет проблематично.
Перед тем, как приступить к продвижению, вам необходимо четко понимать, какие действия уже предпринимались ранее. Очень важно отличать ситуации перенасыщенности сайта низкокачественными ссылками, т.к. дальнейшее наращивание ссылочной массы будет приводить только к ухудшению результата, конечно, если ваша цель не потопить сайт.
Для получения списка обратных ссылок вы можете воспользоваться специальными операторами поисковойсистемы Yahoo. Этот сервис покажет все ссылки, видимые для поисковой системы Yahoo.
Но определять качество и тем более стоимость размещения ссылок на аналогичных площадках проблематично.
В сервисе ROOKEE введен параметр RookeeRank. Он показывает ссылочный вес покупных ссылок, рассчитанный на основании суммы ссылок ведущих на сайт.
Вы можете сравнить ссылочный вес своего сайта с конкурентами по выдаче для того, чтобы выявить перенасыщенность ссылками и точнее определиться с бюджетом.
Поиск пустого запроса на сайте в поисковых системах покажет количество страниц в индексе. По отношению количества найденных страниц к общему количеству страниц сайта можно оценить его известность. После ввода алгоритмов АГС это стало особенно актуально, сайты с малым количеством страниц в индексе косвенно указывают на наложение фильтра.
Отсутствие страниц сайта в индексе является одним из признаков бана. Проверить факт бана поисковой системой Яндекс можно в панели Вебмастера.
Очевидно, что без устранения бана дальнейшее продвижение невозможно.
Доверие к сайту поисковых систем повышает шансы продвижения сайта. Его наличие в таких каталогах, как Яндекс.Каталог и DMOZ, косвенно является атрибутом доверия.
Резюмируя вышеизложенное, предварительный аудит сайта позволит обезопасить вас от взятия обязательств перед клиентами, которые невозможно выполнить.
Итак, в результате предварительной проверки никаких серьезных проблем с сайтом не выявлено, и вы можете взять на себя ответственность за обеспечение результата в продвижении сайта.
Полный аудит сайта поможет вам определить необходимые работы по оптимизации и сформировать техническое задание на доработку. Аудит можно условно разделить на две больших составляющих: техническую и текстовую.
В технической части необходимо выявить все возможные препятствия и помехи при поисковом продвижении.
Работоспособность сайта это важный параметр, который очень сложно проверить на начальном этапе, его необходимо постоянно мониторить на всем протяжении продвижения. Долгий отклик сайта, проблемы хостинга или каналов связи, или не корректная настройка могут печально сказаться на продвижении.
Сайт необходимо поддерживать в работоспособном состоянии.
Видимость сайта поисковым системам настраивается при помощи специального файла robots.txt. Robots.txt предназначен для роботов поисковых систем, в нем указываются параметры индексирования сайта как для всех роботов сразу, так и для каждой поисковой системы в отдельности. Проверить корректность составления файла можно в панели вебмастера Яндекс.
Так же, в файле robots.txt прописываются карты сайта, предоставляющие поисковым системам полный список страниц сайта. С помощью файлов Sitemap.xml вы сообщаете поисковым системам, страницы, желаемые к индексированию.
Ошибки в файлах robots.txt и sitemap.xml могут привести к вылету сайта из индекса или к ухудшению видимости.
В настройке сервера необходимо обратить внимание на следующие моменты. Во-первых, для улучшения наращивания ссылочной массы нужно правильно «склеить» сайт. В robots.txt директивой host прописать основное зеркало. Например, если вы делаете example.com основным зеркалом, а www.example.com второстепенным, то строка в robots.txt должна выглядеть следующим образом:
host: example.com
Далее следует настроить с второстепенного зеркала 301 редирект. Это позволит более эффективно наращивать ссылочную массу, потому что ссылки, поставленные на второстепенное зеркало, будут оказывать влияние и на основное.
Во-вторых, важным моментом является корректность настройки кодировки. В идеале, правильная кодировка должна отдаваться сервером и дублироваться в мета-теге encoding. Поисковые роботы хорошо определяют кодировку самостоятельно, но неправильно настроенными кодировками вы можете ввести поискового робота в заблуждение. Большинство серверов по умолчанию отдают кодировку Latin1, мета-тег заполняется далеко не всеми, а реально кодировка вашего сайта Windows-1251.
Поисковый робот в подобном случае может некорректно определить кодировку и ваш сайт будет показываться только по запросам на китайском, т.к. вместо читаемых символов поисковик увидел только иероглефы.
Третье, что нельзя игнорировать, это структура сайта. Про структуру можно говорить очень долго, остановимся только на ключевых моментах, касающихся формирования внутренних ссылок. Идеальный случай, когда все ссылки, ведущие на внутренние страницы, сделаны по концепту ЧПУ. Нельзя использовать ссылки с идентификаторами сессии, передающиеся посредствам GET запроса, поисковик увидит множество неуникального контента внутри вашего сайта. Так же нежелательно использовать динамические ссылки, точнее нежелательно допускать, чтобы на одну и ту же страницу вели разные URL. Различная последовательность параметров в динамической ссылке поиском может восприняться как две различных страницы. Например,
http://example.com/query?page=1&type=text и http://example.com/query?type=text&page=1
для поисковика это разные страницы. В моей собственной практике был случай, когда Яндекс у сайта с тысячей страниц в индексе видел сотни тысяч страниц. После настройки CMS и исправления ошибки формирования урлов, все нормализовалось, и сайт стал продвигаться в ТОП.
Четвертый параметр, относящийся к настройке сервера, это корректность обработки 404 ошибки. Т.е. для несуществующей страницы должен отдаваться правильный статус код — 404 Not Found.
Пойдем от основной истины — контент сайта должен создаваться для человека, а не для поискового продвижения. В тему анекдот напрашивается:
К копирайтеру приходит заказчик:
Наполни мне сайт любым контентом. У меня всего три небольших желания к контенту — контент должен быть уникальным, естественным и релевантным.
Копирайтер отвечает:
Все три желания выполнить невозможно. Выбери любые два.
Если говорить серьезно, то для продвижения в поисковых системах необходимо и достаточно, чтобы контент продвигаемых страниц и сайта в целом обладал всеми тремя свойствами — уникальностью, естественностью и релевантностью.
Уникальность в поисковых системах можно проверить, запросив в точном вхождении длинные фразы без группировки по копиям. В Яндексе за это отвечает параметр rd=0. Если проверяемая страница не уникальна, то доказать, что ваш контент — это оригинал, а все остальные копии, будет сложно. В большинстве случаев придется писать новый контент.
Если страница неуникальна, но все копии находятся на Вашем сайте, то необходимо удалить дублирующиеся страницы.
Естественность контента можно проверить по косвенным признакам, таким, как количество повторений фраз, несоответствию частоты употребления терминов с частотным словарем.
О том, каким должен быть текст, постоянно ходят споры. С вводом нового алгоритма Яндекса очень сложно выявить конкретные факторы, влияющие на ранжирование. Большинство оптимизаторов сейчас анализируют выдачу по необходимым запросам и пытаются воссоздать аналогичные значения текстовых параметров.
Как было отмечено ранее, влияние ссылочной составляющей в последнее время становится неоднозначным, в связи с чем, упор в поисковом продвижении на накопление ссылочной массы уже не является достаточно эффективным подходом. Совершенствование алгоритмов поискового ранжирования окончательно смешивает карты. Таким образом, все больше значение начинает играть именно качество самого ресурса, в том числе и техническое.
Технический аудит сайта, один из наиболее мощных инструментов оптимизатора, позволяет добиваться результата более эффективно, но на деле оказывается трудозатратным и отнимает массу времени. Чтобы облегчить такую рутинную, но необходимую работу любого SEO-специалиста, уже есть масса сервисов, делающих подобный аудит быстрее и точнее.