Современная электроника №6/2025
СОВРЕМЕННЫЕ ТЕХНОЛОГИИ 40 WWW.CTA.RU СОВРЕМЕННАЯ ЭЛЕКТРОНИКА • № 6 / 2025 циально для работы с искусственным интеллектом (ИИ), в состав которого входят 36 процессоров NVIDIA Grace и 72 ускорителя графических процессо- ров Blackwell B200, размещённых в сер- верной стойке. Они соединены между собой с помощью технологии NVLink, которая позволяет им работать как единое целое, как один гигантский процессор, содержащий суммар- ное количество ARM-ядер Neoverse V2, равное 2592 шт. Эта платформа может выполнять до 1,44 экзафлопс (1,44 квинтиллиона операций в секун- ду) вычислений для ИИ, что делает её одним из самых мощных решений для таких задач. Кроме того, суперком- пьютер имеет до 240 Тбайт быстрой памяти, что позволяет обучать и раз- вёртывать даже самые большие GLM ИИ-модели. Однако такое количество высоко- производительных компонентов дела- ет систему GB200 NVL72 очень энер- гоёмкой: энергопотребление стойки достигает 120 кВт. Поэтому вся систе- ма оснащена мощной разветвлённой системой жидкостного охлаждения. Размеры GB200 NVL72 Rack состав- ляют 600×1000×2236 мм. Общий вес составляет 1360 кг [36]. DGX SuperPOD – масштабируе- мые ИИ-суперкомпьютеры находят- ся на вершине линейки платформы NVIDIA DGX. Это полностью готовый к работе ИИ-кластер, который может масштабироваться до десятков тысяч УГП B200 для решения самых сложных задач обучения и вывода генератив- ных ИИ-моделей, содержащих трил- лионы параметров. Платформа DGX SuperPOD построена по модульной архитектуре на основе масштабируемых единиц (SU), каждая из которых состоит из 32 систем DGX B200 или из восьми стоек DGX GB200 NVL72. Полностью протестированная система масштабируется до четырёх SU, но могут быть построены и более крупные развёртывания в зависимости от требований заказчика. Каждая мас- штабируемая единица DGX SuperPOD способна обеспечить 640 петафлопс ИИ-производительности при точно- сти FP8 [37]. На рис. 8 показан дата-центр на базе DGX SuperPOD. Новейшие версии DGX SuperPOD оснащены системами DGX GB300 с суперчипами NVIDIA Grace Blackwell Ultra. Их появление и подробное описание ожидается ближе к концу 2025 года. Успех NVIDIA в области искусствен- ного интеллекта обусловлен не только мощными графическими ускорителя- ми, но и обширной программной эко- системой, которая делает эти вычис- лительные ресурсы доступными для широкого круга разработчиков. CUDA (Compute Unified Device Architecture) является программной основой, которая обеспечивает пря- мой доступ к виртуальному набору инструкций УГП и параллельным вычислениям на рассмотренном выше оборудовании NVIDIA [38]. NVIDIA AI Enterprise представля- ет собой облачно-ориентированную программную платформу, обеспечи- вающую взаимодействие между обла- ком, дата-центром и периферией. ПО NVIDIA AI Enterprise включает в себя микросервисы NIM и NeMo для повы- шения производительности моделей и ускорения времени развёртывания генеративного ИИ [39]. NVIDIA AI Data Platform интегри- рует корпоративные хранилища с NVIDIA-ускоренными вычисления- ми и программным обеспечением NVIDIA [40]. NVIDIA NIM – это набор предва- рительно созданных, оптимизиро- ванных микросервисов вывода для быстрого развёртывания новей- ших AI-моделей на любой NVIDIA- ускорительной инфраструктуре [41]. NVIDIA NeMo – представляет собой набор микросервисов, который обе- спечивает комплексный набор функ- ций для создания End-to-End плат- форм тонкой настройки, оценки и обслуживания больших языковых моделей [42]. Рис. 8. Дата-центр на базе DGX SuperPOD
RkJQdWJsaXNoZXIy MTQ4NjUy