Изменение базовой инфраструктуры сайта (серверы, IP и т.п) может изменить скорость и частоту того, как Googlebot сканирует этот сайт. Об этом сообщил в своем Twitter сотрудник поиска Google Гэри Илш.
Fun fact: changing a site's underlaying infrastructure like servers, IPs, you name it, can change how fast and often Googlebot crawls from said site. That's because it actually detects that something changed which prompts it to relearn how fast and often it can crawl.#cattax pic.twitter.com/1meuxbdbKi
— Gary 鯨理/경리 Illyes (@methode) November 23, 2020
Илш отметил, что когда поисковик обнаруживает эти изменения на сайте, то это побуждает его заново определять скорость и частоту сканирования, чтобы приспособиться к новым условиям.
При этом Барри Шварц (Search Engine Roundtable) считает, что смена сервера при сохранении всех других параметров влиять на ранжирование не должна. Проблемы могут возникнуть лишь в том случае, если Googlebot не может сканировать сайт из-за ошибок сервера.
Источник: Seroundtable