Специалист отдела качества поиска Google Джон Мюллер поделился описанием того, как алгоритмы поисковика обрабатывают сайты на JavaScript (включая AJAX) и Progressive Web Apps. Публикация включает в себя следующие советы:
Не пытайтесь обмануть Googlebot, прибегая к помощи клоакинга. Чтобы сделать содержимое сайта доступным для всех пользователей, используйте техники feature detection и progressive enhancement. Остерегайтесь редиректов на страницы, не поддерживающиеся браузером. При необходимости используйте polyfill – скрипты, эмулирующие спецификации HTML5 или CSS3, и позволяющие браузеру правильно отображать контент.
Для указания канонического URL используйте атрибут rel=canonical (если контент размещен на нескольких URL-ах).
Не используйте устаревшую схему сканирования AJAX на новых сайтах.
Избегайте использования "#" в URL-ах, так как Googlebot редко индексирует такие адреса.
Используйте Сканер Google для сайтов в Search Console для проверки того, как Googlebot видит страницы.
Удостоверьтесь, что все запрашиваемые ресурсы не закрыты от индексации в файле robots.txt. Сканер Google для сайтов покажет заблокированные ресурсы.
Ограничьте количество встроенных ресурсов, запрашиваемых для отображения страницы (число JavaScript-файлов и ответов сервера).
Google поддерживает использование JavaScript для предоставления тайтлов, метаописаний и метатегов robots, структурированных и других метаданных.
Не забывайте, что другие поисковые системы могут не поддерживать JavaScript или использовать другие подходы при индексации таких страниц.
Джон Мюллер также отметил, что ни одна из вышеперечисленных рекомендаций не является чем-то новым для специалистов. Однако они останутся актуальными в обозримом будущем.
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.