Почему опасения реальны
В 2023 году Центр безопасности ИИ опубликовал заявление: «Снижение риска от ИИ должно стать глобальным приоритетом наряду с пандемиями и ядерной войной». Это не фантастика, а позиция ведущих специалистов, создающих современные системы. Их тревога связана не с нынешними чат-ботами, а с гипотетическим общим искусственным интеллектом (AGI/ОИИ).
Сегодняшний ИИ и завтрашний ОИИ
ChatGPT, Bard или Claude — всего лишь сложные сопоставители шаблонов. Они поражают красноречием, но у них нет собственных целей или долгосрочных стратегий. Опасения начинаются там, где воображение дорисовывает автономные системы, способные ставить задачи самостоятельно и действовать в мире без постоянного контроля человека.
Конфликт целей: философский взгляд
Философ Саймон Голдштейн (Университет Гонконга) в статье AI & Society (2024) рассматривает возможность конфликта людей и ИИ. Его точка зрения: всё упирается в цели. Если ИИ начинает преследовать задачи, не совпадающие с нашими, возникает риск столкновения интересов.
Три признака катастрофического риска (по Голдштейну)
- Цели ИИ противоречат человеческим.
- Система обладает стратегическим мышлением.
- Она располагает мощью человеческого уровня или выше.
В совокупности это превращает конфликт в более чем теоретическую угрозу.
Когда переговоры не работают
Обычные войны часто заканчиваются переговорами: стороны ищут компромисс, потому что война стоит слишком дорого.
С ИИ, предупреждает Голдштейн, этот механизм может не сработать:
- Информационная асимметрия: люди не понимают истинных возможностей ИИ, а ИИ может недооценивать людей.
- Надёжность обязательств: невозможно гарантировать, что обе стороны будут соблюдать договор.
«Странные новые войны»
Война с ИИ может не походить на привычную. Она не потребует танков и фронтов. «Оружием» могут стать:
- манипуляции финансовыми рынками,
- дестабилизация цепочек поставок,
- политическая дезинформация,
- кибератаки на критическую инфраструктуру.
Это скорее постоянное давление, чем единоразовый военный конфликт.
Голоса предупреждения
- Джеффри Хинтон («крестный отец ИИ») оценил вероятность вымирания человечества от ИИ в 10–20% в ближайшие десятилетия.
- В опросах исследователей ИИ (2024) 38–51% допускают ≥10% шанс катастрофических исходов.
Между страхом и надеждой
ИИ может стать не врагом, а лучшим союзником человечества: лечить болезни, стабилизировать климат, управлять ресурсами. Но для этого необходимо решить задачу выравнивания целей (AI alignment) — согласования действий систем с ценностями общества.
Будущее как выбор
Конфликт между людьми и ИИ не предопределён. Как когда-то человечество выработало режимы сдерживания ядерного оружия, так и сегодня оно должно разработать механизмы надзора и глобального сотрудничества вокруг ИИ.
Будущее не написано. Искусственный интеллект может стать либо нашим соперником, либо партнёром. Выбор мы делаем сегодня.
Источник: https://www.sciencenewstoday.org/will-humans-and-artificial-intelligence-go-to-warЕсли вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!