Исследование: каждый десятый источник в ответах Google — написан ИИ
Согласно новому отчёту компании Originality.ai, специализирующейся на детекции контента, созданного искусственным интеллектом, 10,4% источников, на которые ссылаются AI Overviews (AIO) Google — сами были сгенерированы ИИ.
Это означает: один ИИ цитирует другой ИИ. Возникает замкнутый круг — уроборос, где машины обучаются на собственных выходных данных, усиливая предубеждения, повторяя ошибки и постепенно отрываясь от реальности.
Исследование охватило 29 000 запросов категории YMYL (Your Money or Your Life) — темы, где ошибка может стоить здоровья, денег или свободы: медицина, финансы, юриспруденция, политика. Команда Originality.ai проанализировала:
- Ответы AIO в топе поисковой выдачи
- Цитируемые ссылки
- Первые 100 органических результатов по каждому запросу
Для анализа использовалась модель AI Detection Lite 1.0.1. Результат: каждый десятый источник — вероятно, продукт LLM.
Почему это опасно?
«Даже небольшая доля ИИ-цитат в высокорисковых темах — повод для тревоги»,
— Мадлен Ламберт, директор по маркетингу Originality.ai, в интервью The Register.
Проблема не в том, что ИИ-контент плох сам по себе — а в том, что он втягивает всю экосистему в рекурсивную петлю:
- ИИ генерирует контент →
- Другой ИИ цитирует его →
- Третий ИИ обучается на этом →
- Модель «забывает» реальность →
- Происходит коллапс модели.
Как описывает это Nature (2024):
«Коллапс модели — дегенеративный процесс, при котором данные, сгенерированные ИИ, загрязняют обучающие наборы следующих поколений. Модели начинают воспринимать симулякр как реальность».
Позиция Google: «Детекторы ИИ — ненадёжны»
Google отреагировал резко:
«Это ошибочное исследование, основанное на частичных данных и ненадёжных технологиях. Детекторы ИИ не доказали свою эффективность — многие из них дают ложные срабатывания. Ссылки в AIO динамичны и подбираются исходя из актуальности, полезности и своевременности».
Однако данные говорят об обратном:
- Исследование Университета Флориды (2024): Originality.ai с точностью 97,5% определял тексты, созданные GPT-4.
- Исследование Университета Аризоны: всего 2% ложноположительных и 2% ложноотрицательных срабатываний.
Google никогда не обещал исключать ИИ-контент — и даже наоборот. В блоге 2023 года компания заявила:
«Мы оцениваем контент по качеству, а не по тому, кем он написан. ИИ — мощный инструмент для творчества и самовыражения».
Экономический эффект: ИИ вытесняет людей
Проблема не только в качестве — но и в выживании издателей. Исследование Pew Research Center (июль 2024) показало:
Пользователи, видящие AI Overview, в два раза реже кликают на обычные веб-результаты.
Google оспорил эти данные, но Ahrefs в апреле зафиксировал падение CTR на 34,5% для первого результата, если над ним отображался AIO.
Итог: трафик уходит от сайтов — а вместе с ним и доходы. Человеческие авторы теряют мотивацию. А ИИ продолжает цитировать ИИ.
Неожиданный вывод: половина цитат — вне топ-100
Originality.ai обнаружил ещё один любопытный факт:
52% ссылок, цитируемых в AIO, не входят в топ-100 органической выдачи по тому же запросу.
Более того — среди этих «невидимых» источников доля ИИ-контента ещё выше — 12,8% (против общих 10,4%).
Это может объясняться тем, что AIO использует «разветвление запросов» — технику, при которой ИИ выполняет множество смежных поисков, чтобы собрать наиболее полный ответ. В результате в цитатах появляются источники, которые обычный поиск не показал бы.
Однако Ahrefs в своём июльском исследовании (анализ 1,9 млн цитат из 1 млн AIO) пришёл к противоположному выводу:
- 76% цитат — из топ-10
- 9,5% — из топ-100
- Только 14,4% — вне топ-100
Разница, вероятно, связана с фокусом: Originality.ai анализировала только YMYL-запросы, где важна глубина, а не популярность. Как отмечает Сэм Робсон, CEO The Better Web Co.:
«Gemini, на котором работают AIO, способен анализировать PDF, технические документы и нишевые источники — то, что Googlebot раньше игнорировал. В YMYL-темах это критически важно».
Что дальше?
Мы стоим на пороге рекурсивного коллапса информации:
- ИИ обучается на ИИ →
- Качество падает →
- Люди уходят из контента →
- Остаётся только ИИ →
- Реальность растворяется в симулякре.
Google пока не видит проблемы — но рынок уже реагирует. Издатели теряют трафик. Пользователи — доверие. А ИИ — связь с действительностью.
Вопрос не в том, произойдёт ли коллапс. Вопрос — успеем ли мы его остановить.
Что можно сделать?
- Требовать прозрачности: какие источники использует AIO? Как определяется их надёжность?
- Разрабатывать стандарты: маркировка ИИ-контента, ограничения на его использование в обучении.
- Поддерживать человеческий контент: финансово, алгоритмически, культурно.
- Улучшать детекторы: несмотря на скептицизм Google, инструменты вроде Originality.ai показывают высокую точность.
Источник: https://www.theregister.com/2025/09/07/googles_ai_cites_written_by_ai/?td=rt-3a
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!