Статья подготовлена специально для журнала «Интернет в Цифрах»
Отношения поисковиков и оптимизаторов не всегда строились гладко. Соблазн манипулировать выдачей с помощью SEO был столь велик, что многие оптимизаторы не находили сил ему сопротивляться. Поисковики, в свою очередь, быстро вычисляли нерадивых SEOшников, и наказание в виде пессимизации не заставляло себя долго ждать. Своеобразная «гонка преследования» продолжается и до сих пор: поисковики изобретают новые факторы ранжирования, оптимизаторы стараются их вычислить и не отставать. Однако можно ли сегодня назвать это «противостоянием»? Может быть, отношения поисковиков и оптимизаторов движутся абсолютно в противоположном направлении сотрудничества?
Чтобы прояснить ситуацию, мы решили пообщаться с одними из самых ярких представителей индустрии — Александром Садовским (Яндекс) и Сергеем Людкевичем (Корпорация РБС). Итак, представляем вашему вниманию ответы экспертов.
Александр Садовский, руководитель отдела веб-поиска Яндекса
Основная цель Яндекса — решить поисковую задачу пользователя. Будь это запрос в поисковой строке или необходимость заказать такси, проложить автомобильный маршрут по городу.
Как влияет SEO-отрасль на поиск?
Примерно как осадки на урожай. В разумных количествах и умеренной интенсивности — помогает, чрезмерно бурные — мешают.
Как бы выглядела поисковая выдача без работы оптимизатора?
По запросам, где конкуренция за место в результатах поиска небольшая (например, региональные запросы, некоммерческие), результаты поиска могли бы стать не столь привлекательными. Сниппеты и заголовки могли бы хуже читаться, часть сайтов не индексировалась бы в полной мере из-за ошибок веб-мастеров при проектировании, некоторые хорошие коммерческие сайты находились бы ниже.
По коммерческим и популярным запросам вряд ли что-то поменялось бы.
Кто придумал деление на «черное» и «белое» SEO?
Важно понимать, что деление на «черное» и «белое» SEO — это не про эффективность, это про этику. Ее никто не придумывал, само существование социума неизбежно приводит к оценке деятельности каждого участника. Если действия человека мешают другим людям, они считаются неэтичными. Если каждый будет поступать неэтично, социум вымрет. Поэтому неэтичные действия порицаются, общество им противостоит, хотя конкретному индивидууму они могут быть выгодны.
Когда мы говорим о SEO, повсеместное применение «черных» методов может сделать не только поиск, но и всю экосистему, включая сайты и компьютеры пользователей, бесполезными. Например, компьютер будет тормозить, потому что на нем будут работать десятки троянов, полезная информация на сайтах будет перемешана с мириадами купленных и проданных противоестественных ссылок. А реклама в интернете станет бесполезной из-за массового скликивания и накрутки.
Можно ли вывести сайт в конкурентный ТОП исключительно «белыми» методами?
Можно. Почему вы в этом сомневаетесь?
Закупка ссылок, накрутка ПФ и т.д. — уловка или необходимость в работе SEO-специалиста?
Это прямые и неправильные методы. Мы делаем всё, чтобы результат таких накруток не был долговременным и надежным.
Если у больного температура, то примитивная логика состоит в том, что можно понизить ее, сбив температуру на градуснике. Но от того, что градусник начал показывать норму, никому лучше не станет. От того, что поисковик начнет (если начнет) считать сайт нормальным и ранжировать выше, пользователи не получат ответ лучше.
Реально ли обмануть поисковик и остаться в ТОПе?
Суть этого вопроса хорошо изложена в книгах вроде «Как выиграть миллион в лотерею». Наверное, есть и те, кто попали в ТОП обманом, но гораздо чаще те, кто пытались обманывать, остаются ни с чем.
Усложнение формулы ранжирования в отношении коммерческих сайтов — залог качественной выдачи?
Мир устроен по-разному в разных его частях, пользователи выбирают сайты исходя из разных критериев. Логично учитывать эти предпочтения при формировании ответа, если мы хотим качественно решить задачу пользователя. В частности, когда пользователь хочет что-то купить, ему важно доверять сайту, которому он заплатит деньги и от которого будет ждать поставки товара или услуги; он обращает внимание на ассортимент и удобство выбора; для него много значит качество оказываемой услуги. Именно поэтому к ранжированию коммерческих сайтов нужен отдельный подход и отдельная формула. Например, недавно мы ввели новую формулу ранжирования коммерческих сайтов Московского региона.
Правильно ли ставить блок спецразмещения, где порядок сайтов определяется ценой, выше органической выдачи, где порядок сайтов определяется алгоритмом?
Спецразмещение — это реклама, но предположение, что порядок сайтов в спецразмещении определяется только ценой, ошибочно. Спецразмещение очень релевантно благодаря сложным алгоритмам отбора, учитывающим не только цену, но и интерес пользователей. Более того, часто оказывается, что сайты, размещающие рекламу здесь и сейчас, готовы обслужить пользователя лучше, чем сайты, попавшие против своей воли в выдачу — было бы удивительно одной рукой тратить деньги и плохо обслуживать другой. Поэтому контекстная реклама в Яндексе не только решает задачу рекламодателя, но и дает хороший ответ пользователю, когда он хочет купить или получить услугу.
Конечно, рекламный ответ должен быть явно обозначен, чтобы пользователь не думал, что это органическая выдача — и мы это делаем, подписывая «реклама» и отделяя блок объявлений визуально.
Яндекс и SEOшники находятся по разные стороны баррикад или нет?
Вы были у нас в гостях, заметили ли Вы баррикады? Вот я каждый день хожу в офис и не видел никаких баррикад. Если они и есть, то с другой стороны кто-то иной, не Яндекс :)
Есть ли разница в «точках противостояния» SEO и поиска в случае Яндекса и Google (+ других поисковиков)?
Черное SEO противостоит не поисковым системам, а пользователям. А белое помогает и поисковикам, и пользователям находить нужный контент. В этом смысле отношение к SEO у большинства поисковиков схожее.
Как (по)влияет на SEO учет поисковиками новых сигналов, в т.ч. социальных сетей?
Мы давно индексируем весь открытый (доступный без логина и пароля) контент социальных сетей и работаем над тем, чтобы делать это практически мгновенно после появления или обновления информации. С точки зрения сигналов — это еще несколько хороших источников информации к нескольким сотням уже имеющихся.
Насколько будет актуально SEO в мобильном поиске? С одной стороны первые места в выдаче, кажется, важнее, с другой — поисковики пытаются сразу выдавать «ответы». Наконец, есть и развивающийся SEO аппсторов.
Насколько мы могли наблюдать тренды, интерес SEO прямо пропорционален тому, сколько владельцы сайтов готовы платить за продвижение их ресурса. А это зависит от конверсии и доли трафика с данной платформы. Пока доля поисков с мобильного телефона относительно невелика — около 10%, но она постоянно растет. Чем больше она будет, тем жарче будет страсть SEO к мобильному поиску.
Сергей Людкевич, руководитель отдела исследований и аналитики Корпорации РБС
Яндекс, к примеру, обозначает свою главную задачу, как «отвечать на вопросы». Но я бы сформулировал несколько иначе — обеспечить подборку качественных ресурсов, содержащих в той или иной мере ответ на заданный пользователем вопрос. Хотя на некоторый очень узкий спектр вопросов поисковики пытаются дать и непосредственный ответ. Например, функция встроенного калькулятора Google.
Как влияет SEO-отрасль на поиск?
По сути, оптимизаторы участвуют в формировании топа выдачи по очень многим коммерческим запросам.
Как бы выглядела поисковая выдача без работы оптимизатора?
В топе были бы несколько другие сайты, но тоже отвечающие на запрос. Однако среди этих сайтов было бы гораздо больше неактуальных, неподдерживаемых, а то и вовсе заброшенных. То есть, в общем ответить на вопрос пользователя они бы могли, но удовлетворить многие связанные с этим запросом потребности — например, получение наиболее актуальной информации, покупки товара или заказа услуги — уже нет.
Кто придумал деление на «черное» и «белое» SEO?
Честно — не знаю. Впрочем, думаю, подобное деление очевидно, и оно могло прийти в голову одновременно многим людям.
Можно ли вывести сайт в конкурентный ТОП исключительно «белыми» методами?
Вообще, «черные» методы — это когда пользователь и поисковик получают разное содержимое. То есть поисковик ранжирует документ на основании одних данных, а пользователь видит нечто другое. Классические примеры — клоакинг, скрытый текст, редиректы. Сейчас такими вещами пользуются только дорвейщики, все конкурентные топы сформированы без применения черных методов. Другой вопрос — скажем так, оттенки белизны «белых методов».
Закупка ссылок, накрутка ПФ и т.д. — уловка или необходимость в работе SEO-специалиста?
Есть алгоритм (или еще его можно назвать функцией) ранжирования поисковой машины. Он учитывает некоторое количество факторов, как запросозависимых, так и нет. На основе значений этих факторов для конкретного документа и конкретного запроса алгоритм присваивает данному документу численное значение релевантности данному запросу. Задача оптимизатора — достичь таких значений факторов, которые бы максимизировали функцию алгоритма. Если для этого нужно определенное количество, например, ссылочной массы — его нужно обеспечить.
Здесь основная проблема заключается в том, что многие значимые факторы очень сложно, а то и невозможно улучшить естественным развитием сайта, как любят советовать поисковики. Например, очень мощный в последнее время фактор в Яндексе — кликабельность документа в выдаче по запросу. Если документа нет в топе, то кликать по нему никто не будет, как ты сайт ни развивай. Буквально год-полгода назад в Яндексе был очень мощным такой фактор, как релевантность запросу доменного имени. То есть для его улучшения вообще нужно было менять доменное имя. Какое отношение это имеет к развитию сайта?
Да и вообще, в погоне за увеличением количества факторов (если очень утрированно объяснять — этого требует машинное обучение, использующееся в Яндексе для построения функции ранжирования) было придумано много довольно неочевидных и даже абсурдных с точки зрения развития сайтов факторов — например, количество латинских букв в тексте документа. Более того, в результате машинного обучения получается функция, которая вообще не имеет физического смысла. Разработчики пытаются ее корректировать с помощью искусственно вводимых фильтров, штрафов и бонусов, но это тоже далеко не всегда выглядит органично. Например, введенный прошлой осенью в Яндексе штраф за переоптимизацию, который в числе прочего штрафует за чрезмерное использование тегов физической и логической разметки и заголовков. Развивал вебмастер свой сайт, структурировал текст, писал красивые заголовки для разделов, выделял важные места жирным шрифтом — и в итоге получил понижение на десятки позиций.
Так что руководства поисковиков говорят одно, а вот на деле алгоритму нужно совсем другое. И оптимизатору приходится удовлетворять в первую очередь потребности алгоритма, а не пользователя. И некоторые вещи, которые нравятся алгоритму, не совсем понятны пользователю, если не сказать более.
Реально ли обмануть поисковик и остаться в ТОПе?
Смотря, что считать обманом. Если в терминах «черных» методов, которые я озвучил выше — нереально. Если вести речь о других методах — то тут, скорее, нужно говорить не об обмане, а о чувстве меры. Там, где оно не срабатывает, могут возникнуть проблемы.
Усложнение формулы ранжирования в отношении коммерческих сайтов — залог качественной выдачи?
Трудно сказать. Далеко не все усложнения идут в плюс качеству. Да и что именно считать качеством? У поисковиков свои внутренние метрики, которые они улучшают. У пользователей могут быть совершенно другие критерии, у оптимизаторов — третьи.
Правильно ли ставить блок спецразмещения, где порядок сайтов определяется ценой, выше органической выдачи, где порядок сайтов определяется алгоритмом?
В последнее время наблюдается явная тенденция к вытеснению органической выдачи с видимой части экрана. Реклама, собственные ресурсы поисковика — различные сервисы типа карт, картинок, агрегаторов цен и т.п. — призваны первыми бросаться в глаза пользователю. Я лично не считаю это правильным, но, повторюсь, у поисковиков свои метрики качества выдачи.
Яндекс и SEOшники находятся по разные стороны баррикад или нет?
Если называть вещи своими именами — то, скорее да, чем нет. Сотрудникам Яндекса очень не хочется, чтоб кто-то мог сознательно и направленно влиять на результат работы алгоритма. А функция оптимизатора заключается именно в этом. С другой стороны, оптимизаторы часто помогают найти слабые места алгоритма, способствуют его развитию и улучшению, но антагонизм все же, думаю, перевешивает симбиоз.
Есть ли разница в «точках противостояния» SEO и поиска в случае Яндекса и Google (+ других поисковиков)?
Ну, собственно вся разница в реакции конкретного поисковика на конкретные действия оптимизаторов. Да, сейчас реакция несколько разная, и зачастую нужно думать, как сделать так, чтоб страница понравилась алгоритму и одного, и другого поисковика. Иной раз результат этих дум выглядит довольно странно с точки зрения неискушенного пользователя.
Как (по)влияет на SEO учет поисковиками новых сигналов, в т.ч. социальных сетей
Оптимизаторам придется улучшать значения «социальных» факторов с точки зрения алгоритма. Во что конкретно это может вылиться — остается только догадываться.
Поисковики и оптимизаторы — части единой экосистемы. И пусть в их отношениях нередко возникают недопонимания и спорные моменты, все же они стараются идти навстречу друг другу. До понятия «дружба», конечно, им еще далеко, однако, такой термин как «взаимовыгодное сотрудничество» вполне будет уместен.