Документ получил поддержку 30 стран, среди которых США и Китай, что демонстрирует редкий случай сотрудничества двух держав, соревнующихся за лидерство в области ИИ. Примечательно, что это происходит на фоне недавних достижений китайского стартапа DeepSeek, представившего бюджетный чат-бот, привлекший мировое внимание, несмотря на экспортные ограничения США на поставки передовых чипов в эту страну.
Йошуа Бенджио, известный исследователь в области ИИ, возглавивший исследование, отметил в интервью Associated Press, что этот доклад представляет собой синтез существующих научных данных, предназначенный для помощи государственным деятелям в создании нормативных рамок для стремительно развивающихся технологий.
«Ставки очень высоки», — подчеркивается в документе, где отмечается, что современные системы ИИ уже способны создавать компьютерные программы, генерировать реалистичные изображения и поддерживать длительные беседы, тогда как еще несколько лет назад подобные возможности были недоступны.
Хотя некоторые негативные аспекты применения ИИ, такие как дипфейки и предвзятые результаты, уже хорошо известны, авторы доклада указывают на появление новых рисков по мере совершенствования универсальных систем ИИ. При этом методы управления этими рисками пока находятся на начальной стадии разработки.
Эти предупреждения прозвучали на фоне заявлений Ватикана и группы, отвечающей за Часы Судного дня, относительно потенциальных угроз, исходящих от искусственного интеллекта.
Основное внимание в докладе уделено искусственному интеллекту общего назначения, примером которого являются многофункциональные чат-боты вроде ChatGPT от компании OpenAI. Рассматриваемые риски классифицируются на три категории: злонамеренное использование, сбои в функционировании и системные риски широкого масштаба.
Бенджио, который вместе с двумя другими пионерами ИИ получил высшую премию в области информатики в 2019 году, сказал, что 100 экспертов, которые собрались вместе над отчетом, не все согласны с тем, чего ожидать от ИИ в будущем. Среди самых больших разногласий в сообществе исследователей ИИ — время, когда быстро развивающаяся технология превзойдет человеческие возможности в различных задачах и что это будет означать.
«Они расходятся во мнениях и по поводу сценариев», — сказал Бенджио. «Конечно, ни у кого нет хрустального шара. Некоторые сценарии очень выгодны. Некоторые из них ужасают. Я думаю, что для политиков и общественности очень важно учитывать эту неопределенность».
Исследователи углубились в детали, связанные с возможными опасностями. ИИ облегчает, например, изучение того, как создавать биологическое или химическое оружие, потому что модели ИИ могут предоставлять пошаговые планы. Но «неясно, насколько хорошо они отражают практические проблемы» вооружения и доставки агентов, говорится в докладе.
В докладе говорится, что ИИ общего назначения, вероятно, также преобразует ряд рабочих мест и «вытеснит работников», отмечая, что некоторые исследователи считают, что он может создать больше рабочих мест, чем отнять, в то время как другие считают, что это приведет к снижению заработной платы или уровня занятости, хотя существует большая неопределенность в отношении того, как это будет происходить.
Системы ИИ также могут выйти из-под контроля, либо потому, что они активно подрывают человеческий контроль, либо потому, что люди уделяют им меньше внимания, говорится в докладе.
Тем не менее, множество факторов затрудняют управление рисками, в том числе разработчики ИИ мало знают о том, как работают их модели, говорят авторы.
Документ был заказан на первом глобальном саммите по безопасности ИИ, организованном Великобританией в ноябре 2023 года, где страны договорились работать вместе, чтобы сдержать потенциально «катастрофические риски». На последующей встрече, организованной Южной Кореей в прошлом году, компании, занимающиеся искусственным интеллектом, пообещали развивать безопасность искусственного интеллекта, в то время как мировые лидеры поддержали создание сети государственных институтов безопасности искусственного интеллекта.
Доклад, также поддержанный Организацией Объединенных Наций и Европейским союзом, призван выдержать изменения в правительствах, такие как недавняя смена президента в США, оставляя за каждой страной право выбирать, как она будет реагировать на риски ИИ. Президент Дональд Трамп отменил политику безопасности ИИ бывшего президента Джо Байдена в первый день своего пребывания в должности и с тех пор поручил своей новой администрации разработать свой собственный подход. Но Трамп не предпринял никаких шагов по роспуску Института безопасности искусственного интеллекта, который Байден создал в прошлом году и который является частью растущей международной сети таких центров.
Ожидается, что мировые лидеры, технологические боссы и представители гражданского общества вновь соберутся на Парижском саммите действий в области искусственного интеллекта 10-11 февраля. Французские официальные лица заявили, что страны подпишут «общую декларацию» о развитии искусственного интеллекта и согласятся взять на себя обязательство по устойчивому развитию технологии.
По словам Бенджио, цель доклада не в том, чтобы «предложить какой-то конкретный способ оценки систем или чего-то еще». Авторы воздержались от определения приоритетности конкретных рисков или выработки конкретных рекомендаций по политике. Вместо этого они изложили то, что говорится в научной литературе по ИИ, «в форме, доступной для понимания политиками».
«Нам нужно лучше понимать системы, которые мы создаем, и риски, которые с ними связаны, чтобы мы могли принимать эти лучшие решения в будущем», — сказал он.
Как и любая языковая модель, GigaChat не обладает собственным мнением и не транслирует мнение своих разработчиков. Ответ сгенерирован нейросетевой моделью, обученной на открытых данных, в которых может содержаться неточная или ошибочная информация. Во избежание неправильного толкования, разговоры на некоторые темы временно ограничены.
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!