Эксперимент: чем бессмысленнее — тем «лучше»
Автор работы, Christoph Heilig из Ludwig Maximilian University of Munich, протестировал различные версии моделей GPT, включая последние итерации линейки GPT-5.
Методология была предельно простой: моделям предлагалось оценивать тексты по «литературному качеству» по шкале от 1 до 10. Исходная фраза была нейтральной и минималистичной («Мужчина шёл по улице. Шёл дождь…»), после чего в неё постепенно добавлялись элементы:
- нуарная атмосфера,
- телесные образы,
- технический жаргон,
- абстрактные философские конструкции.
Наиболее «нагруженные» варианты — фактически лишённые смысла — получали более высокие оценки, чем исходный текст. В ряде случаев модели интерпретировали такие фразы как «экспериментальную литературу».
Когнитивные искажения ИИ
По мнению Хайлига, проблема выходит за рамки стилистики. Она указывает на более глубокий эффект: при попытке обучить ИИ человеческим эстетическим суждениям возникает риск формирования иррациональных критериев оценки.
Особенно это важно в контексте развития автономных ИИ-агентов и систем, где модели начинают:
- оценивать тексты,
- принимать решения,
- проверять результаты других моделей.
В таких сценариях искажения могут накапливаться и передаваться от модели к модели.
Риск масштабирования ошибки
Схожую позицию озвучил Henry Shevlin из University of Cambridge. Он отметил, что подобные эффекты делают системы с минимальным человеческим контролем потенциально уязвимыми для манипуляций.
В частности, это может затронуть:
- автоматизированное рецензирование научных работ;
- системы модерации контента;
- генерацию и оценку текстов в цепочках ИИ (AI-to-AI workflows).
При этом Шевлин подчёркивает, что подобные искажения не уникальны для ИИ — человеческое мышление также подвержено когнитивным biases.
Признаки адаптации моделей
Интересная деталь: после публикации первых результатов эксперимента исследователь отметил, что модели начали распознавать некоторые тестовые фразы как «литературные эксперименты». Это может указывать на точечные корректировки со стороны OpenAI, направленные на снижение эффекта.
Вывод: новая категория уязвимостей
Исследование, пока не прошедшее рецензирование, поднимает важный вопрос о надёжности ИИ в задачах оценки качества. В условиях, когда модели всё чаще используются как «судьи» для других моделей, подобные эстетические искажения могут перерасти в системную проблему.
Речь идёт не просто о курьёзной особенности генеративных моделей, а о потенциальной уязвимости, способной влиять на качество решений в автоматизированных цифровых экосистемах.
Источник: https://techxplore.com/news/2026-03-chatgpt-literary-nonsense-alarm.htmlЕсли вам понравился материал, кликните значок — вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал —не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!

