Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
21 Мая 2018 в 11:12

Google представил алгоритм, создающий оригинальный контент из содержимого сайтов

5 10680

Команда Google опубликовала научную статью, посвященную новому алгоритму, способному брать содержимое разных сайтов и на его основе создавать «логически согласованные» статьи. Новый алгоритм может отвечать на вопросы пользователей, генерируя оригинальный контент, при этом не перенаправляя юзеров на другие сайты.

Как он работает

На начальном этапе алгоритм обобщает контент, извлекая его с сайта, а затем отсекает нерелевантные части. Схожим образом работают алгоритмы, использующиеся для создания готовых ответов. Результаты, генерируемые с помощью нового алгоритма, называются «извлекаемыми сводками» (Extractive Summaries), так как состоят из контента, извлеченного из веб-страниц. Эти сводки состоят из наиболее важных предложений, отвечающих на вопрос пользователя.

На втором этапе используется еще один алгоритм Abstractive Summary, представляющий собой форму перефразирования. Стоит отметить, что недостатком искусственного перефразирования является тот факт, что почти треть таких сводок содержит фейковую информацию.

Однако в статье сообщается, что в Google нашли способ объединить лучшие стороны алгоритмов.

Расширенные снипеты – только первый шаг

Блоки с ответами являются примером Extractive Summaries. Новый двухфазный алгоритм может применяться для книг, открытых баз данных и любых публичных веб-страниц.

В исследовании, проведенном специалистами Google, в качестве поисковых запросов использовались темы из Wikipedia, а в качестве источника «извлекаемых сводок» – результаты поиска Google. Алгоритм перефразировал этот контент для создания новых статей. Также проводился параллельный тест, в ходе которого алгоритм генерировал второй набор статей, используя только ссылки, упоминаемые Wikipedia.

Результаты

Исследователи признали эксперимент с тестированием нового алгоритма успешным. Google способен создавать собственный контент, обобщая содержимое веб-страниц и отвечая таким образом на вопросы юзеров.

В статье не уточняется, когда именно запустят новый алгоритм.

Нововведение прокомментировал SEO-эксперт Сергей Кокшаров в своем Telegram-канале:

Это больше касается информационных запросов, так как нет смысла генерировать коммерческий контент (если речь не о партнерке). Если на основе таких алгоритмов делать сайты, то они хорошо будут заходить в индекс и ранжироваться. Думаю, компании, занимающиеся черным SEO, также разрабатывают (если уже не используют) подобные алгоритмы, для привлечения и монетизации трафика. О смерти SEO говорить пока рано.

Источник: Search Engine Journal

5 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
  • Ренат Смольный
    2
    комментария
    0
    читателей
    Ренат Смольный
    1 месяц назад
    Дайте поюзать для дорвеев
    -
    0
    +
    Ответить
  • Алексей
    1
    комментарий
    0
    читателей
    Алексей
    1 месяц назад
    интересно гугл через такую вот ссылку     stavka.ru/2bqpr сможет контент вытаскивать ?
    -
    -6
    +
    Ответить
  • IQ-MAXIMA
    15
    комментариев
    0
    читателей
    IQ-MAXIMA
    1 месяц назад
    Каким образом исследователи признали данный эксперимент успешным, если алгоритм Abstractive Summary выдает фейковую информацию... Пока достаточно "сыро"
    -
    0
    +
    Ответить
  • Константин
    1
    комментарий
    0
    читателей
    Константин
    1 месяц назад
    Речь идёт только о генерации английских статей для википедии
    -
    1
    +
    Ответить
  • Света Хейта
    11
    комментариев
    1
    читатель
    Света Хейта
    1 месяц назад
    -
    0
    +
    Ответить

Отправьте отзыв!