Реклама. ООО «Клик.ру», ИНН:7743771327, ERID: 2VtzqvL4rPt
То, что ИИ отбирает трафик у владельцев сайтов, особенно у издателей медиа, – в 2025-м уже сложившийся факт. Мы видим, как это делает Яндекс с ответами Алисы и Google с обзором от ИИ. А как обстоят дела с самой популярной нейронкой?
Мы перевели первую часть исследования Винсента Террази, опубликованную в Search Engine Journal. Он проанализировал внутренние данные OpenAI, которые показывают, что ChatGPT все чаще отображает контент издателя, одновременно устраняя необходимость для пользователей переходить по ссылкам.
Несколько недель назад мне предоставили доступ к конфиденциальному отчету OpenAI для партнеров – набору данных, который обычно предоставляется небольшой группе издателей.
Впервые благодаря отчету мы получили доступ к подробным показателям видимости изнутри ChatGPT – к таким данным, которые когда-либо видели лишь немногие партнеры сайта OpenAI.
Это не «утечка», а скорее необычный взгляд на внутреннюю работу платформы, который повлияет на будущее SEO и публикаций на основе ИИ в течение следующего десятилетия.
Последствия анализа этого датасета намного перевешивают любые отдельные дискуссии: видимость сайтов в AI-ответах стремительно растет, а вот трафик, который реально приводит ИИ, – исчезает.
Это самый явный на сегодняшний день сигнал о том, что мы покидаем эпоху «поисковых систем» и вступаем в эпоху «систем принятия решений», где ИИ агенты обнаруживают, интерпретируют и синтезируют информацию, не обязательно направляя пользователей к источнику.
Это заставляет каждого издателя, SEO-специалиста, бренд-менеджера и контент-стратега кардинально пересмотреть то, что на самом деле означает видимость в интернете.
1. Что показывают данные отчета: видимость без трафика
Этот датасет предоставляет крупному медиаиздателю обзор за целый месяц. С удивительной детализацией он анализирует частоту отображения URL-адреса в ChatGPT, место его расположения в пользовательском интерфейсе, частоту переходов по нему пользователей, количество диалогов, на которые он влияет, а также показатель кликабельности (CTR) в различных местах размещения в пользовательском интерфейсе.
Отображение URL и взаимодействие с пользователем в ChatGPT
URL с лучшими показателями в датасете получил 185 000 уникальных показов в диалогах – то есть отображался в таком количестве отдельных сессий ChatGPT.
Из этих показов 3800 были кликами, что дало CTR на уровне диалога в 2%. Однако при подсчете нескольких показов в рамках диалогов общее число показов увеличивается до 518 000, а общее число кликов – до 4400, что снижает общий CTR до 0,80%.
Это впечатляющий уровень видимости. Однако совсем не впечатляющий уровень трафика.
Большинство других URL-адресов показали значительно худшие результаты:
- 0,5% CTR (в данном контексте считается «хорошим»);
- 0,1% CTR (типично);
- 0,01% CTR (обычный);
- 0% CTR (чрезвычайно часто, особенно для нишевого контента).
Это не единичный случай. Это наблюдается во всем наборе данных и соответствует внешним исследованиям, включая анализ логов сервера, проведенный независимыми SEO-специалистами, который показывает CTR менее 1% из источников ChatGPT.
Мы уже сталкивались с этим явлением, но никогда не сталкивались с таким масштабом. Предшественником была эпоха нулевых кликов в Google. ChatGPT – это ускорение. Однако есть важное отличие: расширенные сниппеты Google были разработаны для быстрого ответа, при этом побуждая пользователей перейти по ссылке для получения дополнительной информации. В отличие от этого, ответы ChatGPT разработаны для полного удовлетворения намерений пользователя, делая клики не просто необязательными, а ненужными.
2. Парадокс поверхностной видимости: там, где OpenAI показывает больше, пользователи кликают меньше
В отчете каждое пользовательское взаимодействие разбито по UI-«поверхностям», что раскрывает одну из самых парадоксальных динамик современного поискового поведения. Блок ответа, где LLM (Large Language Models – большие языковые модели, прим. ред.) размещают более 95% контента, создает огромный объем показов – зачастую в 100 раз больше, чем другие поверхности. Однако CTR держится на уровне от 0,01% до 1,6%, и что любопытно – чем ниже CTR, тем выше качество ответа.
Размещение контента в LLM и взаимосвязь с CTR
Это новый эквивалент «нулевой позиции», но теперь это не просто отсутствие клика, а отсутствие намерения кликнуть. Психология здесь иная, чем у Google. Когда ChatGPT дает исчерпывающий ответ, пользователи интерпретируют клик как выражение сомнения в точности ИИ, указание на необходимость дополнительной информации, которую ИИ предоставить не может, или как академическую проверку (что случается относительно редко). ИИ уже решил эту проблему.
Боковая панель показывает другую картину.
Примечание редакции: автор имеет в виду блок справа от AI обзора Google со ссылками на источники.
Боковая панель со ссылками в Обзоре от ИИ Google
Эта небольшая область имеет гораздо меньше показов, но стабильно высокий CTR, варьирующийся от 6% до 10% в датасете. Это выше, чем органические позиции Google с 4 по 10. Пользователи, переходящие сюда, часто просматривают связанный контент, а не проверяют основной ответ. Боковая панель отражает режим исследования, а не проверки. Пользователи доверяют основному ответу, но проявляют интерес к дополнительной информации.
Ссылки внизу ответов ведут себя схожим образом, достигая CTR от 6% до 11%. Однако они отображаются только в тех случаях, когда ChatGPT явно ссылается на источники. Это привлекает пользователей с академическим складом ума и тех, кто проверяет факты. Примечательно, что наличие ссылок не увеличивает CTR основного ответа; наоборот, оно может его снизить, предоставляя возможность проверки без необходимости клика.
Результаты поиска появляются редко и обычно только тогда, когда ChatGPT определяет необходимость данных в режиме реального времени. Иногда они демонстрируют скачки CTR от 2,5% до 4%. Однако размер выборки в настоящее время слишком мал, чтобы быть значимым для большинства издателей, хотя эти клики отражают наивысшее намерение, когда они происходят.
Парадокс очевиден: чем чаще OpenAI отображает ваш контент, тем меньше кликов он генерирует. Чем реже он отображает ваш контент, тем выше CTR. Это опровергает 25-летнюю логику SEO. В традиционном поиске высокая видимость коррелирует с высоким трафиком. Однако в поиске с использованием искусственного интеллекта высокая видимость часто коррелирует с извлечением информации, а не с привлечением пользователей.
Главный ответ ChatGPT – это механизм видимости, а не механизм трафика.
3. Почему CTR падает: ChatGPT – это конечная точка, а не шлюз
Комментарии и реакции в обсуждениях LinkedIn, посвященных анализу этих данных, были поразительно последовательными и содержательными. Пользователи не кликают, потому что ChatGPT решает проблему за них. В отличие от Google, где ответ – это ссылка, ChatGPT предоставляет ответ напрямую.
Это означает:
- Удовлетворенные ответом пользователи не переходят по ссылкам – они получили то, что им было нужно.
- Любопытные пользователи нажимают на ссылку лишь иногда – хотят изучить ее глубже.
- Скептически настроенные пользователи почти не кликают – они либо доверяют ИИ, либо не доверяют всему процессу целиком.
- Очень немногие пользователи чувствуют необходимость выходить из интерфейса.
Как прокомментировал один из старших SEO-специалистов: «Трафик перестал быть метрикой, которую нужно оптимизировать. Теперь мы оптимизируем передачу доверия».
Другой аналитик написал: «Если ChatGPT ссылается на мой бренд как на источник, я уже завоевал доверие пользователя еще до того, как он зашел на мой сайт. Клик – это просто формальность».
Это представляет собой фундаментальный сдвиг в том, как люди потребляют информацию.
В эпоху до ИИ модель была такой: «Мне нужен ответ» → клик → чтение → оценка → решение.
В эпоху ИИ она изменилась: «Мне нужен ответ» → «получение» → «доверие» → «действие», без необходимости клика. AI становится доверенным посредником. Источник становится молчаливым авторитетом.
Изменение в потреблении информации
Это знаменует начало того, что некоторые называют «Inception SEO» – оптимизации не под клики, а под сам ответ. Цель больше не в том, чтобы быть найденным. Цель – стать источником, которому ИИ доверяет и который цитирует.
4. Авторитет ключевых слов: новая логика поиска с помощью ИИ
Традиционная поисковая оптимизация опирается на индексацию и соответствие ключевым словам. Однако программы LLM работают по совершенно иным принципам. Они полагаются на внутренние знания модели везде, где это возможно, используя данные, полученные с помощью сканирования, лицензированного контента и партнерских программ. Внешние данные извлекаются только тогда, когда модель обнаруживает, что ее внутренние знания недостаточны, устарели или непроверенны.
При выборе источников LLM отдают приоритет авторитету домена и сигналам доверия, ясности и структуре контента, распознаванию сущностей и согласованности с графом знаний, исторической точности и фактической последовательности, а также актуальности – для запросов, чувствительных ко времени. После этого модель решает, стоит ли вообще давать ссылку, – в зависимости от типа запроса и уровня уверенности в ответе.
Это приводит к кардинальному сдвигу:
- Сила сущности становится важнее охвата ключевых слов.
- Авторитет бренда перевешивает традиционное наращивание ссылочной массы.
- Последовательность и структурированный контент важнее объема контента.
- Доверие модели становится самым важным фактором ранжирования.
- Фактическая точность в течение длительного времени создает совокупное преимущество.
Вы больше не конкурируете в поисковом индексе. Вы конкурируете за то, насколько модель доверяет контенту на вашем сайте.
Это имеет радикальные последствия.
Старая SEO-логика была такой: «Ранжирование по 1000 ключевым словам → Получение трафика по 1000 поисковым запросам».
Новая логика ИИ: «Стать авторитетным источником по 10 темам → Стать источником по умолчанию для 10 000 ответов, сгенерированных ИИ».
В этих новых условиях один высокоавторитетный домен может стать лидером среди цитирований AI по всему тематическому кластеру. «Long-tail SEO» (для многословных запросов «с длинным хвостом» – прим. ред.) может стать менее релевантным, поскольку ИИ синтезирует ответы, а не подбирает конкретные ключевые слова. Авторитет темы становится важнее авторитета ключевых слов. Однократное цитирование ChatGPT может повлиять на миллионы ответов в цепочке.
5. Новые KPI: «доля в модели» и влияние внутри ответа
По мере того как CTR снижается, брендам нужно переходить к метрикам, отражающим видимость в среде AI. Первая из них – «доля присутствия в модели»: насколько часто ваш бренд, сущность или URL появляются в ответах, сгенерированных ИИ, независимо от того, кликают по ним или нет. Это аналогично «доле голоса» в традиционной рекламе, но вместо измерения присутствия в платных медиа она измеряет ваше присутствие в процессе рассуждения модели.
Иерархия решений LLM
Как это измерить:
- Отслеживайте упоминания бренда в ответах ИИ на основных платформах (ChatGPT, Claude, Perplexity, Google AI Overviews).
- Отслеживайте распознавание сущностей в контенте, созданном ИИ.
- Анализируйте частоту цитирования в ответах ИИ по вашей тематике.
LLM все чаще формулируют авторитетные утверждения, такие как: «Согласно данным издателя X…», «Эксперты бренда Y рекомендуют…», «Как отмечает лидер отрасли Z…».
Это новый «эффект запоминания бренда», но он происходит с машинной скоростью и в огромных масштабах, оказывая влияние на миллионы пользователей, которые даже не посещают ваш сайт.
Прямая рекомендация от ИИ важнее, чем первое место в рейтинге Google, поскольку рекомендация ИИ имеет алгоритмический характер. Пользователи не видят конкурирующие источники; рекомендация контекстуализирована под их конкретный запрос и появляется в момент принятия решения.
Есть еще контекстное присутствие: быть частью цепочки рассуждений, даже если вас не упоминают напрямую. Это своего рода «темная материя» видимости в ИИ. Ваш контент может влиять на ответ модели без явной атрибуции, но при этом формировать то, как миллионы пользователей понимают тему.
Например, когда пользователь спрашивает о лучших практиках управления удаленной командой, ИИ может синтезировать инсайты из 50-ти источников, но явно сослаться только на три. Однако остальные 47 источников все равно повлияли на ход рассуждения. Ваша экспертность по теме стала частью ответа, который увидят миллионы людей.
Запросы с высоким намерением – еще одна ключевая метрика. Узкие, нижние по воронке промпты все еще конвертируют, показывая CTR на уровне 2,6–4%. Обычно такие запросы связаны:
- со сравнением продуктов,
- конкретными инструкциями, требующими визуальных материалов,
- недавними новостями или событиями,
- техническими или регуляторными сведениями, где нужны первоисточники,
- академическими исследованиями, требующими проверки ссылок.
Стратегический вывод очевиден: не стоит полностью отказываться от оптимизации под клики. Вместо этого нужно определить те 10-20% запросов, где клики все еще имеют значение, и максимально усилить оптимизацию именно под них.
Наконец, LLM оценивают авторитетность на основе того, что можно назвать «присутствием в окружающей экосистеме» и кроссплатформенной согласованностью.
Это включает:
- внутреннюю согласованность всех ваших страниц;
- разметку и структурированные данные, которые машинам легко считывать;
- согласованность с графом знаний через наличие в Wikidata, Wikipedia и отраслевых базах данных;
- междоменную согласованность сущностей, когда авторитетные сторонние ресурсы упоминают вас единообразно;
- временную согласованность, когда ваш авторитет сохраняется на протяжении долгого периода.
Этот комплексный подход к SEO оптимизирует все ваше цифровое присутствие как целостную и надежную структуру, а не как отдельные страницы. Традиционные SEO-метрики не способны отразить этот сдвиг. Владельцам сайтов потребуются новые панели мониторинга для отслеживания цитирований и упоминаний ИИ, новые инструменты для измерения «доли в моделях» на платформах LLM, новые методологии атрибуции в мире пост-клик и новые фреймворки для измерения влияния без прямого трафика.
6. Зачем нам нужна «поисковая консоль ИИ»
Многие SEO-специалисты сразу же увидели одно и то же в датасете: «Похоже, это ранний проект поисковой консоли OpenAI».
В настоящее время издатели не могут:
- Посмотреть, сколько показов они получат в ChatGPT.
- Измерить уровень включения в различные типы запросов.
- Понять, как часто их бренд цитируется напрямую, а как часто лишь упоминается.
- Определить, в каких частях пользовательского интерфейса они появляются чаще всего.
- Соотнести видимость в ChatGPT с доходами от последующих этапов или показателями бренда.
- Отслеживать влияние на уровне сущностей в графе знаний.
- Измерить, как часто LLM извлекают из них данные в реальном времени.
- Понять, почему они были выбраны (или не выбраны) для определенных запросов.
- Сравнить свою видимость с конкурентами.
У Google была метрика «Not Provided», скрывавшая данные по ключевым словам. У AI платформ может появиться статус «Not Even Observable» – когда скрыт весь процесс принятия решений. Это создает ряд проблем. Для владельцев сайтов невозможно оптимизировать то, что нельзя измерить; отсутствует подотчетность AI-платформ, и возникает асимметрия в доступе к информации. Для экосистемы это снижает инновации в контент-стратегии, концентрирует власть у AI-провайдеров и усложняет выявление и исправление предвзятости или ошибок ИИ.
Основываясь на слитом датасете и потребностях индустрии, идеальная «AI Search Console» должна предоставлять основные метрики, такие как:
- объем показов по URL, сущностям и темам,
- разбивку по UI-поверхностям,
- показатели кликабельности и метрики вовлеченности,
- аналитику на уровне диалогов, показывающую уникальные сеансы,
- данные во временных рядах, отражающие динамику.
Она должна отображать данные об атрибуции и источниках:
- как часто вас явно цитируют по сравнению с неявным использованием,
- какие конкуренты появляются рядом с вами,
- категории запросов, в которых вы наиболее заметны,
- метрики, показывающие, насколько ИИ доверяет вашему контенту.
Инструменты диагностики объяснят, почему были выбраны или отклонены определенные URL-адреса, какие признаки качества контента обнаружил ИИ, статус распознавания вашей сущности, связь с графом знаний и проверку структурированных данных.
Рекомендации по оптимизации выявят пробелы в отслеживании вашей сущности, области контента со слабым авторитетом, возможности улучшения видимости ИИ и конкурентные инсайты.
OpenAI и другие платформы искусственного интеллекта в конечном итоге должны будут предоставлять эти данные по нескольким причинам. Регулирующее давление со стороны Закона ЕС об искусственном интеллекте и аналогичных нормативных актов может потребовать прозрачности алгоритмов. Медиапартнерства будут требовать метрики видимости в рамках лицензионных соглашений. Экономическая устойчивость требует наличия циклов обратной связи для здоровой экосистемы контента. А конкурентное преимущество означает, что первая платформа, предлагающая комплексную аналитику, привлечет партнерские отношения с издателями.
Анализируемый нами набор данных может представлять собой прототип того, что в конечном итоге станет стандартной инфраструктурой.
7. Влияние отрасли: СМИ, монетизация и регулирование
Эти комментарии вызвали серьезные опасения и открыли новые возможности для медиасектора. Контраст между экономическими моделями Google и OpenAI разителен.
Google вносит свой вклад в финансирование медиа, выплачивая смежные права в ЕС и других юрисдикциях. Компания по-прежнему обеспечивает значительный трафик, хотя и снижающийся, и установила экономические отношения с издателями. Google также участвует в рекламных экосистемах, финансирующих создание контента.
В отличие от этого, OpenAI и аналогичные ИИ платформы в настоящее время платят только избранным медиапартнерам по частным соглашениям, практически не направляют трафик с CTR менее 1%, извлекают максимальную ценность из контента, предоставляя минимальную компенсацию, и не создают рекламной экосистемы для издателей.
Обзоры ИИ уже снижают органический CTR. ChatGPT доводит эту тенденцию до логического завершения, практически полностью блокируя трафик. Это потребует полной реструктуризации бизнес-моделей и поставит актуальные вопросы: должны ли ИИ платформы платить за смежные права, как это делают поисковые системы? Будут ли правительства вводить компенсационные механизмы за использование контента? Будут ли издатели договариваться о прямых партнерских отношениях с поставщиками программ LLM? Появятся ли новые экосистемы лицензирования данных для обучения, вывода и цитирования? Как следует оценивать контент, который просматривают, но не переходят по ссылкам?
Появляется несколько потенциальных экономических моделей. Одна из них – это вознаграждение на основе цитирования, когда платформы выплачивают вознаграждение в зависимости от частоты цитирования или использования контента. Это похоже на гонорары за потоковую музыку, но требует прозрачных показателей.
В рамках лицензионных соглашений издатели будут лицензировать контент напрямую на ИИ-платформах, устанавливая многоуровневое ценообразование в зависимости от авторитетности и актуальности. Это уже происходит с такими крупными изданиями, как Associated Press, Axel Springer и Financial Times. Гибридные модели атрибуции будут объединять частоту цитирования, показы и переходы по ссылкам, взвешенные по значению запроса и намерению пользователя, для создания стандартизированных систем вознаграждения.
Регуляторные требования могут предусматривать, что правительства будут требовать от ИИ-платформ делиться доходами с создателями контента, основываясь на прецедентах в области смежных прав. Это потенциально может включать обязательные механизмы арбитража.
Это станет крупнейшим сдвигом в экономике цифровых медиа со времен Google Ads. Платформы, которые справедливо решат эту проблему, создадут устойчивые экосистемы. Те, кто этого не сделает, столкнутся с вмешательством регулирующих органов и бунтами издателей.
8. Что издатели и бренды должны сделать уже сейчас
На основе данных и отзывов экспертов формируется новая стратегия. Во-первых, издатели должны отдавать приоритет вовлеченности, а не кликам. Настоящая цель – быть частью решения, а не генерировать всплеск трафика. Это предполагает создание всеобъемлющего, авторитетного контента, который может синтезировать ИИ, приоритет ясности и фактической точности над трюками для повышения вовлеченности, структурирование контента таким образом, чтобы ключевые факты можно было легко извлечь, и установление авторитетности темы вместо погони за отдельными ключевыми словами.
Не менее важно укреплять цифровое присутствие вашей организации. Каждый бренд, автор, продукт и концепция должны быть машиночитаемыми и последовательными. Издателям следует обеспечить наличие своей организации в Викиданных и Википедии, поддерживать единообразие данных NAP (имя, адрес, номер телефона) во всех ресурсах, внедрять расширенную разметку schema.org, создавать и поддерживать записи в графе знаний, создавать структурированные каталоги продуктов и устанавливать четкие связи между сущностями, связывая компании с людьми, продуктами и темами.
Создание сигналов доверия для поиска важно, поскольку LLM отдают приоритет авторитетному, четко структурированному и недвусмысленному контенту.
Эти сигналы доверия включают:
- Четкие биографии, квалификацию и опыт авторов.
- Редакционные стандарты, охватывающие проверку фактов, политику исправления и поиск источников.
- Авторитет домена, сформированный с течением времени, профилем обратных ссылок и признанием в отрасли.
- Структурированные данные, реализованные с помощью schema.org и расширенных сниппетов.
- Фактическая последовательность, сохранение точности с течением времени без противоречий.
- Экспертная проверка посредством сторонних рекомендаций и ссылок.
Владельцам сайтов не следует полностью отказываться от оптимизации под клики. Вместо этого им стоит ориентироваться на запросы в нижней части воронки, которые по-прежнему демонстрируют измеримый показатель кликабельности (CTR) от 2% до 4%, поскольку откликов ИИ недостаточно.
Примеры запросов с высоким CTR:
- «Как настроить [конкретную техническую конфигурацию]» (требуются визуальные материалы или код).
- «Сравните характеристики [Продукта A] и [Продукта B]» (требуются таблицы, подробные сравнения).
- «Последние новости о [важном событии]» (требуется указать давность).
- «Где купить [конкретный продукт]» (транзакционное намерение).
- «Вакансии [компании]» (требуется доступ к порталу вакансий).
Стратегия такова: определите 10–20% тематического пространства, где ИИ не может полностью удовлетворить намерения пользователя, и оптимизируйте эти страницы под клики.
Что касается контента, важно начинать с самой значимой информации, использовать ясный и однозначный язык, ссылаться на первоисточники, избегать неопределенности и размытых формулировок, если только точность не требует их, а также создавать материалы, которые остаются корректными и актуальными длительное время.
PromoPult активно внедряет ИИ инструменты в поисковую оптимизацию. Уже сейчас вы можете подключить «Динамическое SEO», где AI алгоритм подбирает и постоянно актуализирует ключевые слова, которые принесут трафик и конверсии. На платформе есть все для оптимизации контента под ИИ поиск – от подбора семантики и аудита до влияния на внешние факторы, которые увеличивают авторитет сайта. Протестировать SEO можно бесплатно в течение двух недель, а успешные кейсы в своей тематике найдете по этой ссылке.
Возможно, самый важный сдвиг – ментальный: перестаньте думать о трафике и начните думать о влиянии. Ценность сместилась с количества посещений на сам процесс рассуждений. Новые метрики успеха должны отслеживать частоту цитирования вас ИИ, процент упоминаний вас в AI ответах в вашей сфере, как ваша «доля в модели» соотносится с долей конкурентов, наращиваете ли вы кумулятивный авторитет, сохраняющийся при обновлениях модели, и распознает ли ИИ вас как окончательный источник информации по вашим основным темам.
Стратегический фокус смещается с «привлечения 1 миллиона посетителей в месяц» на «влияние на 10 миллионов решений, принимаемых с помощью ИИ».
Издателям также необходимо диверсифицировать источники дохода, чтобы не зависеть от монетизации на основе трафика.
Альтернативные модели включают:
- выстраивание прямых отношений с аудиторией через email-базы, рассылки и клубные подписки;
- предложение премиального контента – через paywall, подписки и эксклюзивный доступ;
- интеграцию коммерции посредством партнерских программ, продаж товаров и услуг;
- формирование B2B-партнерств для предоставления white-label контента, доступа к API и лицензирования данных;
- заключение соглашений с AI-платформами о прямой компенсации за использование контента.
Издатели, которые контролируют отношения со своей аудиторией, а не зависят от посреднических платформ, будут процветать.
Парадокс суперхищника
Фундаментальную истину об искусственном интеллекте часто упускают из виду: эти системы не генерируют контент самостоятельно; они полностью полагаются на накопленный труд миллионов людей, включая журналистику, исследования, техническую документацию и творчество, которые составляют основу любой модели. Эта зависимость является причиной того, почему OpenAI так настойчиво добивается лицензионных соглашений с крупными издательствами. Это не акт корпоративной филантропии, а экзистенциальная необходимость. Языковая модель, обученная только на исторических данных, с каждым днем все больше отрывается от текущей реальности. Она не способна обнаруживать сенсационные новости или обновлять свое понимание исключительно через выводы. Она также не способна изобрести истину, используя одни лишь вычислительные мощности.
Это создает то, что я называю «парадоксом суперхищника»: если OpenAI удастся полностью разрушить традиционный веб-трафик, что приведет к краху издателей и снизит поток нового высококачественного контента до минимума, данные для обучения модели будут становиться все более устаревшими. Ее понимание текущих событий будет ухудшаться, и пользователи начнут замечать, что ответы кажутся устаревшими и оторванными от реальности. По сути, суперхищник поглотит свою экосистему и теперь будет голодать в созданной им самим контентной пустыне.
Парадокс неизбежен и предполагает два совершенно разных возможных варианта будущего.
В одном случае OpenAI продолжает относиться к издателям как к препятствиям, а не как к партнерам. Это приведет к краху экосистемы контента и зависящих от нее систем ИИ.
В другом случае OpenAI делится ценностью с издателями посредством устойчивых моделей компенсации, систем атрибуции и партнерств. Это обеспечит авторам возможность продолжать свою работу.
Разница между этими вариантами будущего заключается не только в технологиях: инструменты для создания устойчивых AI систем, вознаграждающих создателей, в основном существуют уже сегодня. Скорее, это вопрос стратегического видения и готовности признать, что если искусственный интеллект хочет стать универсальным интерфейсом для человеческих знаний, он должен поддерживать мир, из которого он черпает знания, а не пожирать его ради краткосрочной выгоды.
Следующее десятилетие будет определяться не тем, кто создаст самую мощную модель, а тем, кто создаст самую устойчивую, разрешив парадокс суперхищника до того, как он станет причиной вымирания как экосистемы контента, так и систем ИИ, которые не смогут выжить без него.
Примечание: все приведенные выше данные и статистика взяты из отчета партнеров Open AI, если не указано иное.
Примечание редакции PromoPult: иллюстрации переведены и отрисованы на основе изображений из первоисточника.