Современная электроника №5/2025
СОВРЕМЕННЫЕ ТЕХНОЛОГИИ 27 WWW.CTA.RU СОВРЕМЕННАЯ ЭЛЕКТРОНИКА • № 5 / 2025 зиториев GitHub. Другие решения пред- лагают Claude, ChatGPT и др. Мощная модель искусственного интеллекта OpenAI Codex была раз- работана специально для генерации программного кода на основе есте- ственного языка. Это программное обе- спечение является преемником GPT-3 и поддерживает более десятка языков программирования, включая Python, JavaScript, Go, Perl, PHP, Ruby, Swift и Typescript. В мае 2025 года OpenAI представила исследовательскую пред- варительную версию Codex, интегри- рованную непосредственно в ChatGPT. Эта интеграция, значительно упро- щает доступ к возможностям генера- ции кода через знакомый интерфейс ChatGPT [38]. Важно, что GitHub Copilot предла- гает не отдельные токены или стро- ки, а целые функции, классы и даже алгоритмы на основе комментариев, имён функций и окружающего кода. Важным аспектом GitHub Copilot явля- ется его способность учиться на кон- тексте текущего проекта. При этом Copilot также предлагает функции интеллектуального тестирования: он может автоматически генериро- вать модульные тесты для написанно- го кода, помогая обеспечить его надёж- ность и соответствие требованиям. GitHub Copilot интегрируется в редактор кода (VS Code, Visual Studio, JetBrains и др.) и работает в контек- сте кода, в отличие от диалоговых ИИ-ассистентов (Claude, ChatGPT). Немаловажно то, что GitHub Copilot понимает русский язык в комментари- ях. Предположим, что инженеру ста- вится та же задача, что и выше: соз- дать драйвер для датчика DHT22. Для этого он создаёт файл с коммен- тарием: «//Класс для работы с датчи- ком температуры и давления DHT22» . Основываясь на этом комментарии и структуре проекта, Copilot генери- рует полный класс с методами ини- циализации, чтения температуры, влажности, преобразования единиц измерения и обработки ошибок. Инженер добавляет, например, ещё такие комментарии: «//Должен иметь методы для ини- циализации, чтения температуры и влажности. //Должны обрабатываться ошиб- ки чтения и обеспечиваться возврат структуры с данными». Учитывая это, Copilot автоматически распознаёт шаблон и предлагает ана- логичную, но адаптированную струк- туру для нового устройства. Инженер может либо принять пред- ложенный вариант кода (Tab), либо продолжить модернизировать драй- вер, добавляя новые комментарии (Esc). В новых версиях появился Copilot Chat, который ближе к диалоговому формату. Он позволяет задавать вопро- сы о коде, запрашивать объяснения и генерировать код через расширенные варианты комментариев [39–41]. Последняя версия «GitHub Copilot X» поддерживает расширенный вариант комментариев внутри редактора кода, который хотя и ближе к диалоговому формату, но всё же ориентирован на решение достаточно сложных задач программирования. Модель GitHub Copilot в первую очередь ориентирована на задачи программирования высокого уров- ня, такие, например, как: Python, JavaScript, C++. Поэтому её использо- вание для программирования прило- жений низкого уровня не будет рен- табельным. Необходимо также отметить спе- циальный тип архитектуры боль- ших моделей ИИ, получивший назва- ние Mixture of Experts – MoE. В этом варианте вместо полной вычисли- тельной мощности большой моде- ли используется несколько только меньших специализированных бло- ков, называемых Experts (эксперты). Каждый «эксперт» лучше справляется с определёнными задачами, и систе- ма решает, какой эксперт или комби- нация экспертов лучше подходит для конкретного запроса (рис. 7). Наиболее эффективно архитектура MoE проявляется в модели DeepSeek R1. Эту опцию используют также и другие модели, такие как Mistral-7B; Grok 3 mini; Google Switch Transformer; Google GShard; Meta NLLB. При работе в режиме MoE отмечен- ные модели экономят вычислитель- ные ресурсы за счёт того, что исполь- зуют только часть своих параметров в каждый определённый момент вре- мени. Например, для того чтобы обра- ботать конкретный запрос, модели DeepSeek R1 не нужно задействовать всех 256 экспертов, которые у неё есть, а достаточно подключить в работу только 8 из них. Это свойство карди- Рис. 7. В режиме «MoE» вместо полной вычислительной мощности большой LLM модели используется только несколько небольших специализированных блоков, называемых «эксперты»
RkJQdWJsaXNoZXIy MTQ4NjUy