По утверждению Anthropic, для сбора данных использовалась сеть примерно из 24 тысяч фальшивых аккаунтов, через которые было отправлено около 16 миллионов запросов. Дистилляция представляет собой распространённый метод машинного обучения, при котором более компактная модель обучается на выходах более мощной. Однако, по мнению компании, в данном случае практика нарушает лицензионные условия и может подпадать под американские экспортные ограничения.
В Anthropic заявили, что незаконная дистилляция способна привести к удалению встроенных механизмов безопасности, а затем — к использованию возможностей моделей в военных, разведывательных и системах наблюдения. Ранее о подобных подозрениях в адрес DeepSeek сообщали и другие американские разработчики, включая OpenAI, однако теперь, как утверждается, представлены более детальные технические данные.
По версии Anthropic, компании применяли распределённые сети фальшивых аккаунтов, которые внутри компании описывают как «кластеры гидры», чтобы направлять трафик через API и сторонние облачные сервисы. Запросы отличались очень большим объёмом, высокой повторяемостью и узкой специализацией, что характерно для процессов обучения моделей, а не для обычного пользовательского взаимодействия.
В частности, DeepSeek приписывается более 150 тысяч запросов, ориентированных на задачи логического вывода и переформулирование политически чувствительных запросов с обходом ограничений. Moonshot, разработчик модели Kimi, по оценке Anthropic, направила свыше 3,4 миллиона запросов, сосредоточенных на агентных сценариях, программировании и задачах компьютерного зрения. Наиболее масштабная активность, как утверждается, наблюдалась у MiniMax — более 13 миллионов запросов, преимущественно связанных с агентным программированием. После выхода новой версии Claude почти половина трафика была перенаправлена в течение суток, чтобы оперативно получить доступ к обновлённым возможностям модели.
В ответ на выявленные активности Anthropic объявила об усилении защитных мер. Компания внедряет дополнительные классификаторы и системы поведенческого анализа для обнаружения подозрительных паттернов в API-трафике, делится техническими индикаторами с другими разработчиками ИИ и ужесточает процедуры верификации аккаунтов. Параллельно разрабатываются защитные механизмы на уровне моделей и продуктов, призванные снизить ценность выводов для несанкционированного обучения без ухудшения пользовательского опыта для легитимных клиентов.
Если нужно, могу сделать более «жёсткую» версию в стиле короткой деловой заметки или добавить чуть больше контекста про дистилляцию и регулирование ИИ.
Источник: https://rutab.net/b/hardware/2026/02/24/anthropic-obvinila-kitayskie-kompanii-v-promyshlennom-kopiro...Если вам понравился материал, кликните значок — вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал —не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!

