Михаил Сливинский (Яндекс): об алгоритмах качества в поиске, сгенерированных текстах и накрутке ПФ

Поиск Яндекса продолжает меняться. Совершенствуются алгоритмы определения качества контента, внедряются функции на основе нейросетей. Для владельцев сайтов и вебмастеров открываются новые возможности для развития своих ресурсов и их продвижения.

SEOnews поговорил с Михаилом Сливинским, амбассадором интернет-площадок в Поиске Яндекса. Михаил рассказал, какие аспекты учитывает поисковик при оценке качества, понижает ли позиции в выдаче за сгенерированный контент и что делает команда Яндекса для борьбы с накруткой поведенческих факторов.

Мне кажется, причины появления такой роли хорошо понятны всему сообществу оптимизаторов, маркетологов и владельцев сайтов. У них есть большой запрос на повышение прозрачности работы поиска, на открытый диалог. Им хочется знать о том, какие появляются изменения, и на чем фокусироваться для улучшения видимости сайтов в поиске. Яндексу тоже важно понимать конкретные потребности представителей сайтов и бизнесов в интернете,  чтобы учитывать их и улучшать работу поиска для всех – и для пользователей, и для бизнеса. 

Теперь для нашего общего удобства появился конкретный человек, к которому они могут приходить со своими вопросами и предложениями. Я буду аккумулировать их и передавать командам разработки Поиска. И также буду сообщать площадкам о важных изменениях. Пока делать это буду в блоге Вебмастера, но планирую завести отдельный телеграм-канал.

В компании вывели эту должность из команды разработки и продуктов Поиска, чтобы была возможность независимого взгляда и автономности. Это поможет мне сосредоточиться на коммуникациях, а командам лучше слышать ожидания рынка и его реакцию, и они смогут учитывать их в своих планах. Надеюсь, что коммьюнити заметит эти изменения и нашу большую степень погружения в их проблемы.  

Эта должность как раз подразумевала общение с оптимизаторами, маркетологами и владельцами интернет-площадок. Мы поняли, что это востребовано рынком, но это требует больше времени, больше вовлеченности и большего горизонта работы, именно поэтому появилась новая роль. Как и раньше, все могут приходить ко мне со своими идеями и вопросами. 

А Вебмастер продолжит развиваться как сервис для управления представлением сайта в поиске, диагностики и аналитики, помогая решать множество задач оптимизаторам, маркетологам и владельцам сайтов. Мы знаем, что это важный и универсальный инструмент для разных интернет-площадок, поэтому совсем недавно запустили новые фичи: товарную аналитику и подбор запросов. 

В товарной аналитике можно сравнить свои товарные предложения с другими, представленными в органическом поиске Яндекса. С ценами, количеством продавцов, кликами и показами. С этими данными гораздо проще делать выводы о том, какой товар лучше продавать и как его лучше продвигать. 

А Подбор запросов, я считаю, выводит этап поиска ключевых слов на новый уровень. Раньше приходилось отдельно искать ключевые слова, отдельно по ним проводить конкурентный анализ, тестировать разные формулировки. А сейчас мы в одном инструменте собираем поисковые запросы, показываем по ним реальный спрос, клики и конкурентность – это уникальный функционал.

В Вебмастере сильная команда, которая планирует внедрять новые важные фичи и развивать существующие. Поддерживать идеи и приносить новые можно, как и раньше, в чат в Телеграм https://t.me/yawebm и на портал https://webmaster.userecho.com. Ребята всегда открыты для обратной связи. 

Я увидел первые сообщения от коллег сразу же после этого объявления, как только закончил свою презентацию. И сейчас сообщения продолжают приходить. Пишут десятки самых разных людей: SEO-специалисты, руководители крупных сайтов, предприниматели.

Особенно ценно, что коммьюнити отличает наше общение от работы службы поддержки. Практически все диалоги конструктивные, касаются конкретных советов и просьб по улучшению работы поиска. Многие прикладывают собственные исследования, доказательства, подробные аргументы, за что им большое спасибо. Я разбираю эти ситуации, аккумулирую их и забираю для обсуждения с командами поиска. 

Думаю, важно сказать, что все сообщения я смотрю лично, и отвечаю на них сам. Поэтому не всегда могу ответить в тот же день, но обязательно делаю это, как только появляется возможность. И мне кажется, что каждый из этих диалогов наглядно показывает, как сообществу важно такое взаимодействие. 

Это важное обновление поиска, и эти релизы еще продолжаются. В начале апреля была очередная выкатка. Смысл обновлений заключается в улучшении выдачи, чтобы пользователи видели больше веб-страниц с качественным и экспертным контентом. Чем вероятнее пользователю понравится и окажется полезным ответ, тем лучше алгоритм оценивает страницу. 

Поисковая оптимизация также важна, но бессмысленно искать какой-то ключевой фактор, от которого зависит ранжирование. 

На самом деле ведь и поиск, и сайты решают одну и ту же общую задачу – нравиться пользователям и удовлетворять потребность человека, который что-то ищет. Поэтому метрика качества поиска, во-первых, состоит из разных аспектов качества, экспертности и доверия к контенту, которые строятся на асессорских оценках. Они основаны на простом, человеческом восприятии контента. И, во-вторых, у нас есть классификатор, обученный на этих оценках. Он применяется для всех страниц в поиске и используется в ранжировании.

Если позиции по запросам меняются, в том числе и сильно, это далеко не всегда означает, что сайт пессимизирован за какое-то нарушение. Если нарушение есть и касается всего сайта или отдельных страниц – его видно в Вебмастере. В остальных случаях изменения видимости сайта в поиске обусловлены именно формулой ранжирования. Они могут по-разному затрагивать отдельные запросы и страницы сайта – это нормально..

Отдельное внимание при обновлении алгоритма уделили тематикам, в которых пользователю может быть трудно разобраться, и при этом высока стоимость ошибочных решений. Самый яркий пример – это медицина. Некачественные ответы в этой теме могут потенциально нанести вред пользователю, поэтому в ответ на вопросы по таким тематикам важно получать информацию, созданную экспертами по своей теме.

Если трафик из поиска снижается, могу порекомендовать проверить несколько моментов:

  1. Доступность страниц и контента роботу, проиндексированность страниц. 
  2. Не изменился ли спрос. В разделе «Мониторинг запросов» в Вебмастере можно увидеть детальную аналитику по запросам, в том числе позиции, показы, клики и спрос.
  3. Сравните страницы своего сайта с конкурентами в поиске. Чем хорош ваш контент? В чём он выигрывает у конкурентов? Какие сильные стороны у конкурентов вы видите? Тут очень важно стараться смотреть беспристрастно, глазами обычного пользователя, в контексте его реальных проблем и целей. 

Поясню на примере. Я часто слышу ожидание, что максимально подробный контент должен безусловно выигрывать в ранжировании. Но почему? С одной стороны, подробность изложения может быть важна для пользователей, особенно в сложных или требующих аккуратности вопросах. Но часто бывает и так, что на простой вопрос сайт дает пространный ответ, в котором приходится выискивать взглядом что-то ценное по сути. И такая «подробность» становится раздражителем и вряд ли выглядит хорошим ответом.

Думаю, все знают, что Яндекс активно развивает нейросетевые технологии. Это многообещающий и долгосрочный тренд во всем мире, который мы приветствуем. Поэтому сам факт использования нейросетей не влияет на ранжирование. Мы видим, как нейросети помогают улучшить работу экспертов и целых сфер, упрощают рутинные задачи и меняют наше привычное восприятие многих рабочих процессов в лучшую сторону. При этом мы на последней Вебмастерской показывали прямо в презентации примеры недобросовестного использования нейросетей, когда контент про «уборку живота» и «сделывание инъекций» выдается за экспертный и полезный.

Одни и те же инструменты могут использоваться во благо, а могут во вред. 

Если площадки используют нейросети для создания контента со строгим контролем качества, и он действительно в итоге приносит пользу людям – мы это только приветствуем. 

Если нейросети используются для создания сайтов, в которых нет смысла и пользы, и которые не нравятся пользователям и нам с вами – в этом нет ничего хорошего. При этом сайт опускается в выдаче не из-за применения конкретной технологии, а именно из-за некачественного контента. Широкое распространение генеративных нейросетей просто ускорило появление большого количества таких сайтов. Но не важно, кем они созданы – нейросетями или копирайтерами. Важно, чтобы в них была дополнительная ценность для человека. Условно, вы можете купить лучшую дрель в магазине, но это еще не значит, что вы сможете сделать хороший ремонт. Поэтому оценивается не технология, а продукт, результат ее применения. И эта оценка опирается на восприятие пользователями. 

По нашим замерам видно, как после недавних обновлений поиска трафик на страницы с низкокачественным контентом значительно упал. При этом у одного сайта могут быть страницы разного качества. И в таком случае хорошие страницы живут, высоко ранжируются и органически растут, а страницы с некачественным контентом упали. Для этого не нужны санкции, и не бывает каких-то скрытых санкций. Это все происходит в рамках ранжирования по полезности и качеству контента. 

Мы боремся не просто с конкретными сайтами-нарушителями или инструментами накрутки. Мы стараемся не учитывать фродовые сигналы, какими бы изощренными ни были техники спамеров, чтобы накрутка просто не работала по умолчанию и заниматься ей было бессмысленно.

Мы стали гораздо полнее обнаруживать и не учитывать попытки накруток, и намного быстрее принимаем решение. Это приводит к тому, что усилия по накрутке чаще всего не приводят к желаемому результату, а только к пустой трате сил, времени и денег. И мы видим подтверждение этому не только на своих замерах, но и по мнениям самих накрутчиков в чатах и на форумах. 

Поэтому процесс идет, и мы прямо сейчас избавляемся от накрученных и заспамленных сайтов. И мы очень признательны за примеры и обратную связь. Мы ее учитываем и используем для улучшения технологии, поэтому не всегда изменения заметны сразу же. Для этого аналитики изучают эти примеры и на основе этого анализа разрабатывают общее алгоритмическое решение. После этого они проводят эксперименты, чтобы понять, насколько изменения смогли решить целевую задачу. Если всё хорошо, то решение выкатывается. И это не точечные правки, а алгоритм, то есть он может исправить не все присланные примеры. Только алгоритмическое решение позволяет всей системе работать стабильно, полноценно и эффективно.

Сложно сказать, каким будет поиск через 5 лет, потому что развитие нейросетей сегодня – это  челлендж буквально для всех.

Это челлендж для производителей контента, которые озабочены вопросами о том, как конкурировать с другими производителями контента, как удержать у себя аудиторию, как обеспечить высокий уровень качества, как использовать нейросети для оптимизации и улучшения процессов внутри своего бизнеса или своей редакции.

Это челлендж и для пользователей, которые уже столкнулись с реальностью, где количество контента превышает возможность его обработать. И не просто обработать, а еще и понять, чему доверять, на что опереться и к чему прислушаться. Если раньше люди боролись за то, чтобы дотянуться до как можно большего количества контента, то сейчас они скорее борются за то, чтобы до них доходил только лучший и качественный контент.  

Найти в этой реальности новые способы и варианты взаимодействия с пользователями и интернет-площадками – это как раз челлендж для поиска. Причем это неизбежная вещь, весь мир движется в сторону повсеместного внедрения нейросетей, и ни у кого нет опции просто игнорировать происходящее. Поэтому Яндекс много и довольно быстрыми темпами работает в этом направлении. Совсем недавно компания анонсировала новую линейку своих генеративных моделей YandexGPT 3. А скоро мы можем ждать другие большие анонсы, которые смогут дать нам новые возможности для работы с информацией в интернете. И в этой ситуации Яндекс старается максимально слышать все стороны, действовать уважительно и аккуратно.

(Голосов: 1, Рейтинг: 1)