Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (495) 139-20-33
13 Июля 2010 в 12:07

Про ссылочную массу и ее рациональное использование

Россия +7 (495) 139-20-33
6 8378
Подпишитесь на нас в Telegram
Руководитель MyOnlineStudio, реализатор проектов Legatosoft, владелец SEO-блога Seom.info

В своем блоге SEOM.info я неоднократно касался параметров отсева сайтов, на которых мы покупаем ссылки. Так уж случилось, что я нахожусь по обе стороны баррикад — делаю сателлиты, а также занимаюсь продвижением клиентских ресурсов, в результате накопилось много информации, которая используется при продвижении сайтов и отсеве доноров.

Есть множество факторов, которые фигурируют среди основных критериев отсева:

  • дубли контента
  • системные страницы
  • страницы с малым содержанием контента

Среди дополнительных факторов существуют «субъективные» критерии для отсева:

  • форумы
  • профили пользователей
  • варез/кино/порно

Каждый сам для себя решает, по какой классификации обрабатывать ссылочную массу при покупке, но есть неоспоримые факты, которые свидетельствуют о том, что дублированный контент часто выпадает, системные страницы — это различные сортировки и прочая информация не несущая пользы, также поступают поисковики и с различными галереями и другими малоинформативными документами.

Выводы основаны на статистике выпадения страниц после апдейтов Яндекса, работа ведется постоянно со ссылочным массивом 100+ тысяч ссылок на различных проектах, от клиентских, до сателлитов.

Все вышеописанные критерии вычисляются при большой выборке, при этом удается сократить процент выпавших страниц, после каждого апдейта, до 1-2% максимум (в диапазоне стоимости до 5 рублей за ссылку). Если говорить о более дорогих ссылках, то ситуация еще лучше здесь уже единичные выпадения.

Почему так важно делать качественный отсев доноров?

К покупным ссылкам все больше и больше требований, основное из них — это срок. Наша задача поставить ссылку надолго на качественном ресурсе, чтобы она принесла нам максимальный эффект. Если ссылка простоит 1 месяц или меньше, а донор уже выпадет, то это зря потраченные деньги.

Но на практике появился еще один фактор, который портил статистику и увеличивал процент выпавших сайтов, на которых покупались ссылки.

Фактор довольно прост — бан или попадание под фильтр целой сети сайтов. При продвижении сайта по низкочастотным запросам мы покупаем довольно дешевые ссылки, которых нужно достаточное количество, для охвата большого семантического ядра, поэтому визуально мы не просматриваем сайты (кто просматривает сотни/тысячи сайтов ежедневно — респект, но не перегорите :) ).

Возникла необходимость автоматического отсева стандартных сеток сайтов, которые сделаны некачественно и поддаются автоматическому анализу и вычислению. Сразу был откинут параметр просмотра whois-данных и парсинга IP адреса, как не продуктивный.

В результате были вычислены параметры, автоматически определяющие распространенные сети сайтов на биржах. Давайте посмотрим на результаты работы этих фильтров.

Каждый параметр проходит период тестирования, чтобы избежать случайного попадания не в «сеточный сайт», точность определения более 95% (да, все-таки порой случаются попадания не туда :) ).

Для показа в статье были выбраны несколько распространенных сеток, данные по которым снимались 3 раза: 20.05.2010, 16.06.2010, 12.07.2010.

Период в 2 месяца был выбран не случайно, как правило, дольше такие сайты не живут. 3 контрольные точки были выведены как: вход в индекс поисковой системы, начало выпадения страниц, попадание под АГС-фильтр или бан (даты соответствующие).

Результаты тестирования параметров (данные по первой и последней контрольной точке). Нам интересны, прежде всего последние 2 колонки в статистических результатах (количество страниц в Яндексе и Гугле).

Сеть сайтов с базой данных по рефератам/курсовым/дипломным.

Результаты таковы:

По данным Яндекса — все испытуемые либо под АГС-фильтром, либо уже в бане.

Сеть сайтов по недвижимости/квартирам.

Результаты таковы:

По данным Яндекса — все испытуемые либо под АГС-фильтром, либо уже в бане.

Сеть сайтов с базой данных предприятий по разным отраслям.

Результаты таковы:

По данным Яндекса — все испытуемые уже в бане.

Откровенные ГС медицинской тематики/скан книг/словари.

Результаты таковы:

По данным Яндекса — все испытуемые уже в бане.

Сеть сайтов автомобильной тематики.

Результаты таковы:

По данным Яндекса — все испытуемые либо под АГС-фильтром, либо уже в бане.

Сеть сайтов не объединенная какой-либо тематикой, содержащая вполне приличные сайты.

Среди сетей сайтов встречаются и не совсем «поганые» и даже дорогие доноры, но суть от этого не меняется.

Все они рано или поздно, а чаще — довольно рано, попадают под фильтры поисковых систем.

В результате, если мы закупили достаточно большой ссылочный массив на сетках сайтов, которые сделаны не качественно, то после очередного апдейта мы можем получить не 0.5-1% выпавших доноров, а все 10-20%.

Нужно ли говорить, что такие колебания ссылочной массы не доводят до добра?

Я думаю, не стоит пугать страшилками покупателей ссылок, но хотел бы заострить внимание не только на стандартных параметрах отсева сайтов, но и на «сеточном» признаке, который может оказать крайне негативное воздействие на процесс продвижения сайта.

В самое ближайшее время я представлю свои наработки, которые позволят более четко обрабатывать ссылочный массив для продвижения низкочастотных запросов. Появятся они в сценариях системы ROOKEE.

6 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • MyOST
    больше года назад
    tar729, у меня тоже есть , и что это доказывает? :)

    То что есть риск в один момент лишиться ее?
    -
    0
    +
    Ответить
  • tar729
    больше года назад
    у меня есть сетка в одной тематике, перелинкована, и очень не плохо себя чувствует...
    просто нужно понимать, как можно линкоать ее, а как нельзя.
    вся сетка отлично просвечивается яндексом ибо на народе. Т.е. я даже не скрываю от яши, что все сайты принадлежат мне одному.
    -
    0
    +
    Ответить
  • Alex
    больше года назад
    Ну значит бан не за горами =)) ... Залинкованная сеть , да ещё и на одни данные !
    -
    0
    +
    Ответить
  • Гость
    больше года назад
    это статья реклама ROOKEE?  где сами-то параметры?
    -
    0
    +
    Ответить
  • NosovI
    больше года назад
    Хм, еще бы для начала определиться с термином "сетки"... Хорошие сетки могут жить столько же, сколько и нормальные СДЛ. Ибо эти сетки и разрабатывались для таких целей. И они развиваются как СДЛ. Вспомните Текарт.
    Конечно, метод выявления чисто сеток вызывает интерес, но он совершенно не устраняет более распространенную угрозу - сателлиты и ГС (не сетки), с которыми Я вряд ли закончил свою борьбу. Сетка - это не обязательно зло (если ее сайты прошли через фильтры о...
    Хм, еще бы для начала определиться с термином "сетки"... Хорошие сетки могут жить столько же, сколько и нормальные СДЛ. Ибо эти сетки и разрабатывались для таких целей. И они развиваются как СДЛ. Вспомните Текарт.
    Конечно, метод выявления чисто сеток вызывает интерес, но он совершенно не устраняет более распространенную угрозу - сателлиты и ГС (не сетки), с которыми Я вряд ли закончил свою борьбу. Сетка - это не обязательно зло (если ее сайты прошли через фильтры определенных параметров)
    -
    0
    +
    Ответить
  • MyOST
    больше года назад
    NosovI, говоря про сетки - я не говорю, что они не работают или есть зло. Но есть Гсетки, которые выпадают, а люди клепают их заново и заново. Зачем наступать на эти грабли, если можно их отсеять?

    Списки факторов составляются на основании УЖЕ ВЫПАВШИХ сателлитов, что позволяет говорить о определенных тенденциях.

    Также отсеиваются определенные методы уникализации контента, например я уже описывал
    -
    0
    +
    Ответить

Отправьте отзыв!
X | Закрыть