Современная электроника №4/2025

СОВРЕМЕННЫЕ ТЕХНОЛОГИИ 34 WWW.CTA.RU СОВРЕМЕННАЯ ЭЛЕКТРОНИКА • № 4 / 2025 ния может превысить $240 млн. Также нужно учесть дополнительные расхо- ды, связанные с потреблением элек- троэнергии. Если учесть, что в сумме такое оборудование потребляет около 20 МВт, годовые затраты на электро­ энергию составят ещё $15–20 млн. Нуж- но не забыть расходы на обслуживание инфраструктуры – $10–15 млн в год [36]. По оценкам экспертов, для обуче- ния последней модели Grok 3 было задействовано около 100 000 графиче- ских процессоров (GPU NVIDIA H100). Стандартная серверная система DGX NVIDIA H100 включает в себя 8 GPU H100. Поэтому для размещения 100 000 GPU H100 потребуется 12 500 систем DGX H100 (рис. 6) [37]. Своеобразным сюрпризом в 2024 году стала китайская компания DeepSeek, которая является одним из ключе- вых китайских игроков на рынке ИИ. Она была основана в 2023 году быв- шими сотрудниками из Baidu Янь Цзюнем (бывший технический вице- президент Baidu) и Цао Яндунем (экс- технический директор Baidu) [38]. Эта компания выделяется среди китайских компаний, занимающихся разработкой моделей ИИ. Неслучайно в названии компании обыгрываются слова «Deep Seek» – «глубинный поиск» (рис. 7). Используя нетрадиционный под- ход как в аппаратной, так и в про- граммной частях своей разработки, DeepSeek сумела создать модель, кото- рая по производительности не уступа- ет, например, LLM OpenAI, однако сто- ит в несколько раз дешевле [39]. Добавим, что DeepSeek – один из немногих китайских разработчиков, выпускающих как проприетарные, так и открытые модели ИИ [40]. Модель DeepSeek Coder 33B была специально разработана для лучшего понимания и генерации программно- го кода [41]. Кардинально отличается аппарат- ная часть DeepSeek от американских и других западных производителей. Из крайне скупых описаний состава аппаратной части можно предполагать, что DeepSeek, по оценкам экспертов, использует, скорее всего, последнюю модель китайского специализирован- ного процессора Huawei Ascend 910C. Однако конкретных упоминаний это- го факта нет, по крайней мере, в англо- язычной литературе. Можно лишь ска- зать, что этот процессор, разработанный Huawei специально для задач ИИ, осно- ван на архитектуре Da Vinci, оптимизи- рованной для обработки больших объ- ёмов данных и выполнения сложных вычислений, необходимых для работы с глубокими нейронными сетями. Нали- чие встроенной памяти снижает необ- ходимость частого обращения к внеш- ним источникам данных и ускоряет обработку больших объёмов данных. Для обучения моделей уровня DeepSeek R1, по-видимому, используется кластер из сотен или тысяч GPU/TPU. Например, тренировка на Nvidia H800 могла про- ходить на кластере из примерно тыся- чи единиц, а вывод – на аналогичном количестве Ascend 910C [42, 43]. Ориентировочная цена одного чипа Ascend 910C может составлять пример- но $5000, что в несколько раз дешевле Nvidia H100. Поэтому несмотря на то, что производительность китайского процессора Ascend 910C достигает все- го 60% от производительности амери- канского H100, он значительно выигры- вает в цене [44]. Большинство крупных компаний развивает различные направления ИИ одновременно. Вместе с тем существует определённая специализация компаний – разработчи- ков ИИ по отдельным направлениям: ● OpenAI: продвинутые языковые и мультимодальные модели; ● Anthropic: безопасность и этичность ИИ; ● Meta AI: открытые модели и исследо- вания; ● Google: широкий спектр от фундамен- тальных исследований до практиче- ских приложений; ● Microsoft: интеграция ИИ в продукты и разработка инструментов; ● xAI (Grok): акцент на максимальной информационной открытости, не- стандартном мышлении и встроен- ной актуальной информации из Ин- тернета; ● DeepSeek: специализированные моде- ли для программирования и матема- тики с фокусом на китайский и миро- вой рынок, баланс между открытыми и проприетарными решениями. Языковые модели искусственного интеллекта С помощью обучающих программ большие генеративные модели, кроме того, что способны решать сложней- шие технические вопросы со скоро- стью обработки миллионов операций в секунду, могут также писать музы- ку, стихи, генерировать изображения, поддерживать диалог практически на всех языках мира (рис. 8). Языковые модели искусственного интеллекта (Language Models – LM), являющиеся частью общего класса Generative Language Models – GLM, пред- назначены для обработки естественно- го языка. Эти модели могут распозна- вать, переводить, предсказывать или генерировать текст или другой кон- тент, включая видео и изображения. Различают два типа языковых моде- лей – большие (Large Language Models – LLM) и малые (Small Language Models). Современные LLM обычно имеют от 70 млрд параметров и выше. Напри- мер: GPT-4 – примерно от 1 до 1,8 трлн; Claude 3 – более 1 трлн; Gemini Ultra – более 100 млрд; GPT 3,5–175 млрд. Классификация моделей LLM основы- вается не только на количестве пара- метров, но также учитывает такие функциональные возможности, как требования к вычислительным ресур- сам; возможность локального запуска; эффективность использования ресур- сов; специализация конкретных задач. В качестве примера наиболее извест- ных больших языковых моделей LLM можно привести следующие: ● GPT-4 от OpenAI (ChatGPT) [46]; ● ChatGPT от OpenAI [47]; ● Gemini от Google [48]; ● Claude от Anthropic [49]; ● LLaMA 2 от Meta [50]; ● Grok от xAI [51]; ● PaLM/PaLM 2/CodeGemma от Google [52]; Рис. 6. Кластерная система GPU серверов в ИИ Grok [37] Рис. 7. DeepSeek – глубинный поиск [39]

RkJQdWJsaXNoZXIy MTQ4NjUy