ЖУРНАЛ СТА №2/2026

и действовать автономно. Этот переход знаменует собой один из ключевых этапов в истории автоматизации и об- условлен конвергенцией аппаратных средств робототехники, технологий ис- кусственного интеллекта и систем ма- шинного зрения. Масштабы внедрения робототехники быстро растут. По состоянию на 2023 год в мире было установлено более 4 мил- лионов промышленных роботов. Па- раллельно развитие программного и аппаратного обеспечения существенно расширяет функциональные возмож- ности таких систем – от высокоточной манипуляции объектами до автоном- ной навигации – и значительно снижа- ет объём инженерных усилий, необхо- димых для их внедрения. На этом фоне ускоряется и инновационная актив- ность: растёт число стартапов и объём инвестиций, стимулируемых потен- циалом физического ИИ. Формируются новые технологические направления, простирающиеся от базовых моделей для робототехники до универсальных роботов общего назначения, включая и гуманоидные системы. В условиях ускоряющихся измене- ний перед стратегическими руководи- телями бизнеса встаёт ряд принципи- альных вопросов: какие технологиче- ские прорывы лежат в основе текущей трансформации; каким образом робо- тотехника уже меняет производствен- ные процессы, структуру занятости и конкурентную динамику отраслей; и какие технологические и кадровые основы необходимо заложить уже се- годня, чтобы обеспечить готовность бизнеса к будущему. Технологические прорывы Последние достижения в области программного и аппаратного обеспече- ния привели к качественному скачку в развитии робототехнических систем, позволив им выполнять сложные зада- чи в динамически изменяющихся сре- дах при значительно более простом развёртывании. Существенный вклад в эти изменения внесли прогресс в обла- сти искусственного интеллекта и раз- витие высокоточных систем моделиро- вания, которые стали возможны благо- даря ускоренным вычислениям с ис- пользованием графических процессо- ров (GPU). Современные вычислительные мощ- ности позволяют выполнять сложные модели и алгоритмы искусственного интеллекта в режиме реального вре- мени, что открывает принципиально новые области применения робототех- ники. В основе этого подхода лежит концепция наделения роботов способ- ностью воспринимать окружающую среду, планировать свои действия и выполнять их в условиях реального мира. Таким образом, формируется уро- вень так называемого физического ин- теллекта (Physical AI), при котором ма- шины способны не только выполнять заданные операции, но и адаптиро- ваться к изменяющимся условиям, принимая решения на основе текуще- го контекста. Расширенное восприятие Достижения в области сенсорных тех- нологий и искусственного интеллекта радикально повысили способность ро- ботов воспринимать окружающую сре- ду. Доступные камеры с высоким разре- шением, системы лидарного сканиро- вания (LiDAR), а также тактильные дат- чики нового поколения формируют значительно более насыщенный поток первичных данных. Одновременно с этим современные алгоритмы компью- терного зрения, основанные на глубо- ком обучении, обеспечивают уровень визуального восприятия, приближаю- щийся к человеческому. В результате роботы получили воз- можность в реальном времени распо- знавать и интерпретировать сложные сцены: идентифицировать объекты, определять их объёмно-пространст- венную ориентацию и оценивать их физические свойства. Эти возможности являются ключевыми предпосылками для формирования понимания того, как взаимодействовать с объектами. В совокупности данные технологии позволяют роботам «видеть» и осмыс- лять окружающую среду с беспреце- дентной точностью. Автономное принятие решений и планирование Именно инновации в области искус- ственного интеллекта и программного обеспечения позволили роботам при- нимать осмысленные решения в режи- ме реального времени. В отличие от жё- стко заданных программ, современные системы используют методы обучения с подкреплением и моделирование, позволяя формировать поведение через многократные итерации и отработку ошибок в виртуальной среде. Высокоточные физические симуля- торы и методы доменной рандомиза- ции, предполагающие варьирование параметров среды (например, осве- щённости или коэффициента трения), существенно сокращают разрыв между симуляцией и реальным миром. Это обеспечивает перенос закреплённых моделей поведения на реальные устройства без потери эффективности. Дополнительный импульс развитию придают базовые (foundation) модели, объединяющие зрение, язык и действия. Такие системы, как Gemini Robotics от Google DeepMind и Isaac GR00T от Nvidia, обрабатывают мультимодальные вход- ные данные и формируют адекватные задаче выходные команды. Это обес- печивает более естественное взаимо- действие человека и машины, а также значительно улучшает контекстное по- нимание. В результате становится возможным построение сложных рабочих сценари- ев: получив цель (например, разгрузка партии товара), система самостоятель- но формирует последовательность дей- ствий – от вскрытия упаковки товара до использования погрузчика. Таким образом, роботы переходят от выпол- нения отдельных операций к реализа- ции целостных многошаговых процес- сов, приближаясь к человеческому уровню интуитивного планирования и принятия решений. Точная манипуляция и мобильность Прогресс в области материаловеде- ния, приводных систем и конструкций роботов существенно расширил их фи- зические возможности. Аппаратные инновации – от высокоточных приво- дов с контролем усилия до мягких ро- ботизированных захватов – обеспечи- ли высокий уровень точности и гибко- сти при работе с объектами. Современные роботы способны на- дёжно захватывать предметы сложной формы и хрупкие объекты, что в рам- ках жёстко запрограммированных дви- жений было практически недостижи- мо. Эти возможности обеспечиваются интеллектуальными системами управ- ления, в реальном времени регулирую- щими силу захвата и параметры взаи- модействия. Ключевым фактором прогресса стало внедрение тактильной чувствительно- сти: современные датчики позволяют роботам получать обратную связь о давлении и скольжении/трении, что приближает уровень манипуляций ро- ботизированной руки к человеческой. ОБ ЗОРЫ СТА 2/2026 29 www.cta.ru

RkJQdWJsaXNoZXIy MTQ4NjUy