Новый алгоритм яндекса выкидывает из индекса качественные сайты? оптимизаторы беспокоятся, насколько точно алгоритм будет отличать оригинальный контент от копипаста в будущем. В комментарии для SearchEngines.ru руководитель группы разработки робота компании Яндекс Роман Грачёв говорит: «Сокращение количества проиндексированных Яндексом страниц связано с внедрением нового алгоритма удаления дублей. Это внедрение позволит показывать на выдаче больше разнообразного контента».
Внедрение нового алгоритма оптимизаторы обсуждают и на форуме SearchEngines.ru. В алгоритме удаления дублей видят как плюсы, так и минусы. Естественно, что новый алгоритм поможет очистить сеть, но с другой стороны, могут пострадать сайты с оригинальным контентом. И если пока это была только пробная зачистка, то в будущем можно ждать массовых удалений. Александр Шокуров, руководитель отдела поисковой рекламы агентства интернет-рекламы i-Media, пока не делает прогнозов о количестве сайтов, которые могут выпасть из индекса поисковой системы Яндекс. «Выводы о новом алгоритме Яндекса и его точности можно будет сделать в ближайшие 2-3 недели», - считает Александр.
Точность определения поисковой системой оригинального и дублированнго контента - вопрос, который беспокоит оптимизаторов больше всего. Специалисты на форуме не верят, что Яндекс сможет точно определить первоисточник: «Вся проблема в том, что Яндекс не может определить сайт близкий к ГС от сайта далекого от ГС». Точность поисковой системы форумчане оценивают примерно в 15-25%. Уже в первые дни внедрения алгоритма удаления дублей из индекса выскочило много сайтов с уникальным контентом.
Большинство сайтов дублируют контент, чтобы зарегистрироваться в биржах ссылок. «После введения нового алгоритма Яндекса ссылочные биржи понесут серьезные потери; но, думаю, восстановить потери в очередной раз для них не составит труда», - говорит Александр Шокуров.
SEOnews недавно писал о том, что крупные поисковики буржунета объединились в борьбе против дублированного контента. Google, Microsoft, Yahoo и Ask дали вебмастерам возможность выбирать из множества урлов один, который поисковая система будет считать каноническим