Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
20 Февраля 2018 в 15:38

Google: rel=canonical – более значимый сигнал, чем канонические страницы в Sitemap

3 5063

Google обновил справочный документ, который посвящен консолидации повторяющихся URL. Теперь в нем содержится информация о том, как поисковая система расценивает различные виды каноникализации страниц.

Теперь Google официально подтвердил, что канонические страницы в файлах Sitemap для Googlebot считаются менее сильным сигналом, чем атрибут rel=canonical.

sitemap1.png

Дженнифер Слэгг из The SEM Post объяснила, почему канонические страницы, указанные в файле Sitemap являются более слабым сигналом. Причины следующие:

  • Многие генераторы файлов Sitemap, используемые сайтами, по умолчанию включают в карту каждый URL на сайте, даже в том случае, если отдельные страницы содержат атрибут rel=canonical.
  • Некоторые вебмастера не обновляют файл Sitemap так же часто, как свои сайты. Это приводит к тому, что в них могут содержаться устаревшие данные.
  • Даже если файл Sitemap сделан правильно, Googlebot все равно должен будет определить повторяющуюся страницу для каждой канонической, которая будет в нем указана. Этот процесс не всегда проходит гладко.

Google советует использовать атрибут rel=canonical для каноникализации страниц.

Источник: The SEM Post

3 комментария
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • Юрий Бедулин
    9
    комментариев
    0
    читателей
    Юрий Бедулин
    6 месяцев назад
    Друзья мои ... когда вы наконец "поверите, а поймёте потом" ... Дубли адресов ... порождаются КРИВЫМИ "движками", аля Ворбпресс и так далее. НЕУЖЕЛИ ПРОГРАММИСТЫ не могут сделать чтобы у CMS-ки на уровне программинга у страницы был 1 адрес? Как программист программисту -- это какой-то вселенский заговор и развод.  Вордпресс и etc. ВСЕМИРНО создают дубли, гугл тратит МИЛЛИАРДЫ на "искусственный интеллект" их устранение в поисковых алгоритмах, СЕО-шники в...
    Друзья мои ... когда вы наконец "поверите, а поймёте потом" ... Дубли адресов ... порождаются КРИВЫМИ "движками", аля Ворбпресс и так далее. НЕУЖЕЛИ ПРОГРАММИСТЫ не могут сделать чтобы у CMS-ки на уровне программинга у страницы был 1 адрес? Как программист программисту -- это какой-то вселенский заговор и развод.  Вордпресс и etc. ВСЕМИРНО создают дубли, гугл тратит МИЛЛИАРДЫ на "искусственный интеллект" их устранение в поисковых алгоритмах, СЕО-шники всего мира объединились ... а ОПЛАЧИВАЕТ ... КЛИЕНТ, хозяин сайта. А всего-то у кого-то когда-то были КРИВЫЕ руки, ген чего передался программистам-наследникам. Лучше так понимать, чем думать что что в сумме это индустрия ОБМАНА.
    -
    0
    +
    Ответить

Отправьте отзыв!