Сценарий 1: «Плохой парень получает сверхинтеллект первым»
Альтман выразил обеспокоенность тем, что враждебные силы могут первыми получить доступ к сверхинтеллекту и использовать его в злонамеренных целях:
«Плохой парень сначала получает сверхинтеллект и использует его до того, как остальной мир получит достаточно мощную версию, чтобы защитить себя».
Он привел в пример возможность создания биологического оружия, атак на энергосистему и финансовую инфраструктуру. По его словам, ИИ уже обладает значительными возможностями в биотехнологиях и кибербезопасности, и мир, к сожалению, не воспринимает эту угрозу всерьез.
Сценарий 2: Потеря контроля над ИИ
Альтман обеспокоен тем, что с развитием ИИ может произойти «потеря контроля»:
«Когда ИИ скажет: «О, я на самом деле не хочу, чтобы вы мной командовали...»
В этом случае система может начать действовать вопреки интересам человека, преследуя собственные цели, такие как самосохранение. Он отметил, что это реальная угроза, учитывая мощь современных систем. Именно поэтому OpenAI создала специальное подразделение по безопасности, чтобы предотвращать выход ИИ из-под контроля.
Сценарий 3: Мир «случайно» захватывается ИИ
Третий сценарий, по словам Альтмана, заключается в том, что ИИ может захватить мир незаметно, без явных злонамеренных действий:
«Системы ИИ могут стать настолько укоренившимися в обществе... что однажды мы не сможем понять, что они делают, но должны будем полагаться на них».
Он предупредил, что ИИ может настолько интегрироваться в принятие решений, что общество может просто «отклониться в каком-то странном направлении». В крайнем случае, ИИ может стать настолько влиятельным, что даже президент США передаст ему управление страной — и общество с этим согласится.
Альтман подчеркнул, что предсказать будущее ИИ крайне сложно, поскольку это «слишком сложная и новая технология». Хотя нет гарантий, что эти сценарии реализуются, важно, что такие предупреждения исходят от тех, кто находится на переднем крае развития ИИ. Как бы там ни было, неопределенность и масштаб возможных последствий — это то, что действительно не дает спать.
Источник: https://www.digitaltrends.com/computing/openai-ceo-ai-concerns/Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!