«Гугл Панда» – это поисковый алгоритм, который внедрила компания Google 24 февраля 2011 года, чтобы фильтровать сайты в поисковой выдаче. Он разработан для сортировки сайтов и удаления из выдачи низкокачественных страниц, которые наполнены неуникальными текстами, имеющими множество стилистических и орфографических ошибок, недостоверной и дублирующейся информации. Благодаря этому фильтру пользователь находит сайты, наиболее точно отвечающие его запросам, и не тратит время на просмотр ресурсов, которые созданы для агрессивного SEO-продвижения.
Как разрабатывался фильтр
Разработка Google Panda, как и многих других алгоритмов, проводилась в атмосфере закрытости. Рядовые пользователи и веб-мастеры не знали никаких подробностей. На сегодняшний день известно лишь о двух разработчиках – Амите Сингале и Мэтте Катсе. Все остальные детали остаются в секрете в соответствии с официальной политикой компании Google. Первыми алгоритм увидели пользователи из США. Согласно отчетам SEO-специалистов такое нововведение существенно сократило трафик из поисковой системы Google: для крупных сайтов снижение составило 12 %, а для небольших ресурсов – почти 50 %. Около 10 % сайтов со средней и маленькой посещаемостью были забанены в поисковике после попадания под фильтр. После проведенного тестирования алгоритм стал работать и в других странах. В России владельцы сайтов и пользователи столкнулись с ним 24 апреля 2012 года. Результаты были похожими: некоторые ресурсы упали в поисковой выдаче примерно на 50 позиций.
Вывести ресурс из-под блокировки до 2016 года можно было лишь после выхода очередного апдейта. С момента запуска фильтра они выходили примерно раз в 2 месяца. В сумме с момента появления их было около 30. В январе 2016 года Google Panda внедрили в алгоритм ранжирования (Core Ranking Algorithm). Веб-мастеры получили выгоду от этого нововведения, т. к. блокировка и вывод сайта происходят очень быстро, дожидаться нового обновления стало не нужно.
Что учитывает алгоритм
Алгоритмы фильтрации разрабатываются с целью улучшения качества SERP для пользователя. Сайты, имеющие некачественный контент, попадают в топ-10 значительно реже. Главный критерий – полезность и достоверность информации на странице сайта. Если ресурс полезен, то у него значительно больше шансов оказаться в топе по определенным запросам.
На сегодняшний день достоверно выявлен ряд аспектов, на которые Google «Панда» реагирует в первую очередь:
- качество ссылок. Ссылки не должны вести на малопосещаемые или блокированные сайты;
- качество контента. На сайте должны быть структурированные, уникальные тексты с минимальным количеством стилистических и орфографических ошибок;
- ПФ (поведенческий фактор). Один из самых важных факторов. «Гугл» учитывает время, которое пользователь провел на сайте, количество переходов, цитирование и пр.
Как вывести ресурс из-под фильтра
Ограничения, которые накладывает фильтр «Панда», заставляют веб-мастеров более внимательно относиться к наполнению ресурса.
Для этого следует:
- публиковать уникальный контент – изображения, тексты и видео;
- сокращать ссылочную массу;
- заниматься обновлением контента;
- удалять рекламу, нерелевантное содержимое, ссылки;
- оптимизировать структуру и интерфейс ресурса для удобства пользователя;
- улучшать ПФ.
Ресурсы, которые размещают ссылки на источники заимствованного контента, могут не волноваться по поводу попадания под фильтр. Представители компании Google не раскрывают информацию о точном проценте критической массы ссылок, но веб-мастеры должны работать над разработкой уникального контента. По ряду субъективных оценок, точность фильтрации – около 90–95 %. Из-за этого можно встретить ресурсы, которые были необоснованно понижены в выдаче. В таком случае нужно проконсультироваться с представителями техподдержки и принять при необходимости соответствующие меры.
Похожие темы:
нет
Синонимы:
нет
Все термины на букву «G»
Все термины в глоссарии