Технические аспекты оптимизации сайта

1. Введение

Зачастую, веб-мастера, создавая сайт, пренебрегают многими техническими аспектами, не догадываясь, что эти аспекты просто необходимы для успешного продвижения сайта в поисковых системах в дальнейшем.

Целью мастер-класса является написание инструкций по наиболее важным техническим моментам поисковой Seo оптимизации сайта. Изложенная ниже информация будет полезна, как проектировщикам и разработчикам сайтов, так и начинающим и опытным оптимизаторам.

2. Технические аспекты оптимизации сайта

2.1 Заголовки и мета-тэги

Тэг заголовка

- обязателен к заполнению. Этот тэг несет смысловую нагрузку страницы и является ее заглавием. <p>Мета-тэги (мета-информация о странице) размещаются в части страницы после тэга </p><title> и не являются парными, то есть, закрывающий тэг не нужен. <p>В спецификации HTML существует множество мета-тэгов, однако все их использовать не имеет смысла. Остановимся лишь на основных: Description и Keywords.</p> <p>Description должен содержать в себе расширенный заголовок, а Keywords – список основных ключевых слов для данной страницы, перечисленных через запятую.</p> <p>Остальные мета-тэги не обязательны для использования на страницах сайтов, направленных на поисковую оптимизацию.</p> <h3>2.2. Меню и навигация</h3> <p>При разработке меню сайта, навигации на сайте, необходимо учитывать ряд важных, с точки зрения поисковой оптимизации, факторов:</p> <ol><li>Однообразность и правильность внутренних ссылок, например, все с www или все без www;</li> <li>Правильность ссылочной адресации, с точки зрения спецификации HTML (например, наличие недопустимого символа: «обратный слэш» в адресе ссылки);</li> <li>Отсутствие на сайте страниц-дублей (одинаковых страниц с разными адресами). Обычно такие страницы – это динамические страницы с разным порядком параметров, например, index.php?id=3&show=for_print и index.php?show=for_print&id=3. Для пользователей – это одна и та же страница, а для поисковых систем – страницы разные;</li> <li>Наличие в адресах URL внутренних ссылок идентификаторов сессий (то есть каждый посетитель при заходе на сайт получает уникальный параметр &session_id=, который добавляется к адресу каждой посещаемой страницы сайта) значительно снизит эффективность индексации сайта;</li> <li>Для сайтов большого размера рекомендуется использование меню типа «крошки» - строгого иерархического меню (например, главная/продукция/продукт1/продукт1_1);</li> <li>Известно, что поисковые системы не индексируют, либо индексируют частично коды скриптов (JavaScript, VBScript), файлы апплетов (Java-приложений) и флэш-ролики (Macromedia Flash), а вариантов реализации различных выпадающих меню, навигаций, реализованных с их помощью, существует множество. Поэтому, чтобы избежать проблем при индексации сайта роботами поисковых систем, следует разрабатывать такие варианты навигации, где в меню используются прямые ссылки, индексируемые роботами, либо, в крайнем случае, – дублировать «скриптовые» и флэш-меню прямыми ссылками;</li> <li>Наличие «мета-редиректов» (редиректов на стороне «клиента», т.е. перенаправлений, реализуемых в мета-тэгах) на страницах сайта существенно затрудняет его индексацию. Поэтому, если необходимы перенаправления посетителей с одной страницы на другую, то лучше воспользоваться серверным редиректом 301 (Moved Permanently – редиректом на стороне сервера).</li> <li>Наличие функционала «карта сайта», «разводящего» по иерархии разделы на сайте, значительно упрощает как индексацию страниц роботами поисковых систем, так и «юзабилити».</li> </ol><h3>2.3. Настройка сервера</h3> <p>Чтобы избежать проблем с индексацией сайтов поисковыми системами, необходимо грамотно настроить следующие серверные параметры:</p> <ol><li><b>Кодировка</b>. Настроить корректную выдачу сервером кодировки страниц сайта Charset (например, win-1251);</li> <li><b>Дата последнего изменения документа</b>. Настроить корректную выдачу сервером даты последнего изменения документа - заголовок Last Modified.</li> <li><b>Обработка статуса 404</b>. В случае некорректных настроек сервера для страницы с ошибкой 404 сервер возвращает 200 OK. Таким образом, можно получить стопроцентный дубликат страницы, вследствие чего робот поисковика может «склеить» ее с любой другой страницей сайта.</li> </ol><h3>2.4. Оптимизация кода страниц</h3> <p>Многие web-разработчики жертвуют скоростью загрузки сайта в угоду её визуальной красоте. И титульные страницы размером c 200 Кб сегодня не редкость. Проблемы больших страниц очевидны – это скорость загрузки и трудности с индексацией. Основные причины объемности страниц – «весомые» графические элементы, «лишний код» (такой код обычно генерируется некоторыми HTML-редакторами в больших количествах) и переизбыток контента. Устранить эти причины просто: в первом случае – применить существующие методы оптимизации графики, во втором – методы «чистки» тэгов, в третьем, соответственно, - удалить «лишний» контент.</p> <h3>2.5. Фреймы</h3> <p><a href="https://www.seonews.ru/glossary/freym/">Фреймы</a> – это одно из средств форматирования страницы. Они позволяют разделить окно просмотра документа на несколько прямоугольных областей.</p> <p>Использование фреймов в структуре сайта существенно затрудняет его поисковое продвижение и от их применения лучше отказаться, ведь существующие в настоящее время технологии таковы, что использование фреймов совершенно необязательно.</p> <p>Другой вопрос, если сайт уже создан на фрейм-технологиях, и переделать его нет возможности. Тогда с оптимизацией и продвижением сайта могут возникнуть проблемы, заключающиеся в том, что некоторые поисковые системы не могут индексировать фреймы.</p> <p>Решение проблемы только одно - использование тэга </p> <h3>2.6. <a href="https://www.seonews.ru/masterclasses/chto-takoe-robotstxt-zachem-i-kak-ego-ispolzovat-kak-razreshit-k-indeksatsii-ves-sayt-a-zapretit-k-indeksatsii-tolko-odnu-stranitsu-v-robotstxt/">Robots.txt</a> и зеркала</h3> <p>Важно грамотно использовать файл robots.txt - файл инструкций для поисковых систем. Этот файл должен находиться в корневой директории сайта и содержать только допустимые общепринятые инструкции.</p> <p>При наличии зеркал (частичных или полных копий) у сайта во избежание проблем с его индексацией, в файле robots.txt, при помощи директивы Host, необходимо указать основное зеркало (когда робот поисковика обнаруживает несколько зеркал сайта, он выбирает одно из них в качестве основного, остальные из индекса удаляются): «Host: www.site.ru».</p> <h2>3. Заключение</h2> <p>Итак, важно помнить:</p> <ul><li>размещение заголовка Title на страницах сайтов полезно, как с точки зрения обычного пользователя, так и поисковой машины;</li> <li>мета-информация о странице (мета-тэги) важны для поисковых систем, поэтому пренебрегать ими не стоит;</li> <li>грамотно и профессионально выполненная навигация по сайту только положительно сказывается, как на «юзабилити», так и на индексации роботами поисковых систем;</li> <li>качественная настройка сервера позволяет избежать многих проблем с индексацией сайтов поисковыми системами;</li> <li>оптимизация кода страниц – также немаловажный аспект и для «юзабилити», и для поисковиков;</li> <li>негативное взаимодействие фреймов с поисковыми системами позволит еще на этапе проектирования сайта отказаться от их (фреймов) использования;</li> <li>правильное наполнение файла инструкций позволит поисковым системам грамотно управлять индексацией сайта и его «зеркалами».</li> </ul><p>Таким образом, не стоит пренебрегать техническими аспектами оптимизации сайта, как на стадии его разработки, так и при «раскрутке» уже готового сайта. Умелое же использование материалов мастер-класса позволит избежать множества проблем при продвижении сайтов в поисковых системах.</p>

(Голосов: 5, Рейтинг: 5)