Научный журналист Адам Беккер в книге «Больше всего навсегда» развенчивает этот утопический нарратив. Он показывает, что представления о всесильном ИИ не только наивны, но и несут в себе опасные последствия.
Беккер акцентирует внимание на ограничениях современных ИИ-систем. Галлюцинации — то есть вымышленные или ошибочные ответы — остаются фундаментальной проблемой современных моделей ИИ. Так, например, ChatGPT заявил, что с территории Испании можно увидеть Эйфелеву башню и небоскрёбы Дубая — пример очевидного абсурда. Пока ИИ не научится понимать, что значат слова и как они соотносятся с реальностью, такие ошибки будут продолжаться.
Попытки устранить эти проблемы с помощью увеличения объёма данных для обучения моделей ИИ, по мнению Беккера, лишь усугубляют ситуацию: алгоритмы начинают обучаться на контенте, сгенерированном другими ИИ, включающем ложную и предвзятую информацию – те самые «галлюцинации». В итоге система замыкается в собственном искажённом зеркале.
Главное возражение автора — техноутопии отвлекают внимание от настоящих вызовов: климатического кризиса, социальной несправедливости, угрозы ядерной войны. Эти проблемы не решаются за счёт новых технологий. «Ничто не спасёт нас. Компьютер – не джинн, который исполнит любые три желания», — пишет Беккер. — «Технологии не исцелят мир. Это можем сделать только мы сами».
Источник: https://www.sciencenews.org/article/more-everything-forever-book-review-ai
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!