7 Мая 2007 в 03:24

SEO-мифология

0 1204
Алексей Кравцов
автор блога,
"Философия оптимизатора"

Почему-то на ум приходят знаменитые слова не менее знаменитого исторического персонажа: “Товарищи, революция, о которой так долго говорили большевики, свершилась!”

Наконец-то, дождались! Почти целый год уже отдельные представители нашего сообщества, включая вашего покорного слугу, пытались донести массам сведения о том, что блоки продажных ссылок фильтруются - не доходило. 5 месяцев назад даже Яндекс не выдержал, намекнул. Разве что прямым текстом осталось сказать: “Ребята, мы фильтруем ваши ссылки”.

А тут вдруг наступило великое озарение - непот на продажных мордах! Что произошло-то?

Почитал выборочно разросшуюся на 4 десятка страниц тему на форуме. Грустно. Грустно от того, что часто новичкам указываем на ссылку “Поиск”, а сами видимо забыли как ей пользоваться. Правильно говорится, все новое - хорошо забытое старое. Очень хорошо забытое.

Но сказать хочу не об этом. В недалеком прошлом, в эпоху борьбы с линкторами, Яндекс также вводил фильтры, что породило поистине великий миф под названием “Склейка ссылок”. Пренебрегая всякой элементарной логикой, общественность упорно верила в его существование. Никакие разумные доводы не помогали.

Прошло время - миф забылся. И разве что какой новичок, покопавшись в древних архивах форума, иногда выносит его на поверхность. О мифе забыли - урок не усвоили. Теперь, видимо, возникла потребность в новом мифе - нужно человеку во что-то верить, нужна тайна! И вот он, встречайте - великий и ужасный “Непот!”. В этом месте всем положено вздрогнуть и почувствовать собственную причастность к чему-то тайному и великому.

Знаю, что с мифом бороться бесполезно, что останусь неуслышаным, но сказать должен. Непота - нет! Нет, потому что быть не может в принципе. Фильтрация ссылок - процесс автоматический. И никакой, даже самый гениальный алгоритм фильтрации не даст 100% гарантии, что данная ссылка/ссылочный блок/страница/сайт является искусственным и требует полной фильтрации. А непот - это 100% фильтрация. Если это и можно сделать, то исключительно при участии человека. Но у Яндекса нет таких ресурсов в принципе и никогда не будет. Поэтому имеет место исключительно снижение веса исходящей ссылки на основе анализа совокупности факторов. О том, насколько именно снижен вес конкретной ссылки - никто никогда не узнает. Никакого алгоритма тут быть не может, равно как мы не можем узнать, к примеру, значение внутренней релевантности. Все, что сейчас так активно обсуждается и выявляется - это крайний случай, когда вес ссылки фильтруется ниже допустимого порога и просто исключается из обсчета ссылочного. Но это не гарантирует вам, что вес ссылки, купленный за 100$ на морде с ПР6 в блоке из 30 ссылок будет больше веса ссылки, купленной за 6$ с ПР3, где установлено 5 ссылок. Причем ни там, ни там вы не увидите никакого непота - все будет чисто.

Да, и кто сказал, что тот самый пресловутый порог учитываемости ссылок у Яндекса = const? Он - очень хороший способ экономии вычислительных ресурсов. А раз так, то при необходимости им можно очень гибко манипулировать. И сайт, определяемый сегодня под непотом, завтра чудесным образом от него избавится, а послезавтра приобретет опять. Представляю, сколько догадок, предположений и домыслов могут породить подобные “пляски”. Ничего, все это мы еще увидим.

Во всей этой ситуации радует только то, что есть правильное понимание того, как избегать фильтрации, значит, не все так безнадежно. А миф… миф умрет - дайте только время.

Алексей Кравцов, оптимизатор

0 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:

Отправьте отзыв!