Большинство современных ИИ представляют собой так называемые нейронные сети, основанные на принципах работы мозга, с процессорными блоками, известными как искусственные нейроны. Обычно они проходят различные этапы своего развития. Сначала ИИ обучается, после чего его искусственные нейроны настраиваются с помощью определенных алгоритмов, чтобы лучше отражать данный набор данных. Затем искусственный интеллект может быть использован для реагирования на новые данные, такие как ввод текста, например, в ChatGPT. Однако, после того как нейроны модели настроены на фазу обучения, они не могут обновлять и извлекать уроки из новых данных. Это означает, что большинство крупных моделей искусственного интеллекта должны быть переобучены при появлении новых данных, что может оказаться непомерно дорогостоящим, особенно если эти новые наборы данных состоят из больших фрагментов всего Интернета.
Исследователи задавались вопросом, можно ли добиться «усвоения» новых знаний после первоначального обучения, что позволило бы снизить затраты, но было неясно, способны ли они на это. Этой проблемой занялись Шибханш Дохаре из Университета Альберты в Канаде и его коллеги на примере наиболее распространенных моделей искусственного интеллекта для непрерывного обучения.
Дохаре и его команда впервые обучили системы искусственного интеллекта на основе базы данных ImageNet, которая состоит из 14 миллионов помеченных изображений простых объектов, таких как дома или кошки. Но вместо того, чтобы обучить искусственный интеллект один раз, а затем протестировать его, пытаясь различить два изображения несколько раз, как это обычно делается, они переобучали модель после каждой пары изображений.
Они протестировали таким образом целый ряд различных алгоритмов обучения и обнаружили, что после пары тысяч циклов переподготовки сети оказались неспособными к обучению и работали плохо, многие нейроны казались «мертвыми» или с нулевым значением.
Команда также обучила ИИ моделировать процесс обучения муравья с помощью обучения с подкреплением – распространенного метода, при котором ИИ обучают тому, как выглядит успех, и определяют правила методом проб и ошибок. Когда они попытались адаптировать эту технику для обеспечения непрерывного обучения путем переподготовки алгоритма хождения по различным поверхностям, они обнаружили, что это также приводит к неспособности к обучению.
По словам Дохаре, эта проблема, по-видимому, присуща способу обучения современных систем, но есть возможный способ обойти ее. Исследователи разработали алгоритм, который случайным образом включает некоторые нейроны после каждого сеанса обучения, и, как оказалось, он снижает низкую производительность. «Если [нейрон] умер, мы просто оживляем его», – говорит Дохаре. «Теперь он снова способен к обучению».
«Алгоритм выглядит многообещающим, но его нужно будет протестировать на гораздо более крупных системах, прежде чем мы сможем быть уверены, что он будет работать», – говорит Марк ван дер Уилк из Оксфордского университета.
«Решение проблемы непрерывного обучения – это вопрос буквально на миллиард долларов», – говорит он. «Реальное, комплексное решение, которое позволило бы вам постоянно обновлять модель, значительно сократило бы затраты на обучение моделей».
Источник: https://www.newscientist.com/article/2444870-ai-models-cant-learn-as-they-go-along-like-humans-do/
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!