Инициатива
- Призыв предполагает выработку правил до конца 2026 года.
- Документ уже поддержали более 200 экспертов, включая лауреатов Нобелевской премии, бывших президентов Ирландии и Колумбии, а также «крёстных отцов ИИ» Джеффри Хинтона и Йошуа Бенджио.
- Предложение основано на трёх принципах:
- Чёткий список глобальных запретов;
- Надёжные и проверяемые механизмы контроля;
- Независимый надзорный орган, созданный странами-участниками.
Возможные «красные линии»
Хотя конкретные правила предстоит выработать правительствам, инициаторы предлагают примеры:
- запрет на использование ИИ для управления ядерным оружием;
- запрет на применение ИИ для массовой слежки;
- ограничение разработки ИИ-систем, которые невозможно отключить человеком.
Геополитический контекст
Регулирование ИИ остаётся предметом споров:
- ЕС продвигает собственный закон о регулировании ИИ;
- США ранее обязались не передавать ядерный арсенал под контроль ИИ, однако внутри страны идут дискуссии о применении технологий для разведки и слежки;
- многие государства балансируют между национальной безопасностью, интересами бизнеса и глобальными рисками.
Перспективы
Авторы инициативы настаивают на проведении серии международных саммитов и рабочих групп. Однако разногласия между странами могут замедлить процесс. Если компромисс будет найден, мир получит первые универсальные рамки для предотвращения наиболее опасных сценариев использования ИИ.
Источник: https://gizmodo.com/ai-experts-urgently-call-on-governments-to-think-about-maybe-doing-something-200...Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!