Основные угрозы
В документе подчёркивается риск потери «контроля над знаниями и возможностями ядерного, биологического, химического и ракетного оружия». По мнению экспертов, генеративный ИИ, способный совмещать поиск с созданием новых текстов, может предоставить доступ к критической информации, облегчающей разработку и применение таких технологий.
«Без строгого регулирования террористические организации могут использовать ИИ для разработки, производства и применения оружия, что сделает традиционные механизмы контроля неэффективными», — отмечается в докладе.
Контекст
Документ является обновлением концепции, впервые опубликованной в 2023 году в рамках Глобальной инициативы Китая по управлению искусственным интеллектом. В его подготовке участвовали национальная группа реагирования на киберугрозы (CNCERT) и государственные структуры, отвечающие за мониторинг критически важных сетей и реагирование на кибератаки.
Китай ранее предупреждал о рисках «технологий двойного назначения», способных подорвать национальную безопасность и снизить барьеры для использования оружия неспециалистами.
Международный фон
Военные по всему миру активно внедряют ИИ. В докладе напомнили, что в июне 2024 года Израиль применил системы на базе искусственного интеллекта при атаке на Иран. На этом фоне в Пекине подчёркивают необходимость строгого контроля:
«Мы должны предотвращать любые неконтролируемые риски, которые могут угрожать выживанию и развитию человечества. Искусственный интеллект должен всегда оставаться под контролем человека», — говорится в заявлении.
Источник: https://www.scmp.com/news/china/politics/article/3325843/loss-control-china-warns-terrorists-could-u...Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!