Новый алгоритм яндекса выкидывает из индекса качественные сайты?
оптимизаторы беспокоятся, насколько точно алгоритм будет отличать оригинальный контент от копипаста в будущем. В
Внедрение нового алгоритма оптимизаторы
Точность определения поисковой системой оригинального и дублированнго контента - вопрос, который беспокоит оптимизаторов больше всего. Специалисты на форуме не верят, что Яндекс сможет точно определить первоисточник: «Вся проблема в том, что Яндекс не может определить сайт близкий к ГС от сайта далекого от ГС». Точность поисковой системы форумчане оценивают примерно в 15-25%. Уже в первые дни внедрения алгоритма удаления дублей из индекса выскочило много сайтов с уникальным контентом.
Большинство сайтов дублируют контент, чтобы зарегистрироваться в биржах ссылок. «После введения нового алгоритма Яндекса ссылочные биржи понесут серьезные потери; но, думаю, восстановить потери в очередной раз для них не составит труда», - говорит Александр Шокуров.
SEOnews недавно писал о том, что крупные поисковики буржунета объединились в борьбе против дублированного контента. Google, Microsoft, Yahoo и Ask дали вебмастерам возможность выбирать из множества урлов один, который поисковая система будет считать каноническим