Компания Anthropic выдвинула обвинения против нескольких китайских разработчиков искусственного интеллекта, включая DeepSeek, Moonshot и MiniMax, утверждая, что они использовали обширную дистилляцию для усовершенствования своих моделей, опираясь на возможности их ИИ, известного как Claude.
По информации Anthropic, для осуществления этих действий было задействовано 24 000 поддельных аккаунтов, с помощью которых было сделано 16 миллионов запросов. Дистилляция представляет собой метод машинного обучения, при котором менее мощная модель обучается на результатах более сильной.
Хотя данный метод является законным, Anthropic считает, что его применение китайскими компаниями нарушает американские экспортные ограничения и условия лицензирования.
Представители Anthropic подчеркнули, что «иностранные лаборатории, которые незаконно проводят дистилляцию американских моделей, могут обходить защитные меры, передавая возможности моделей в свои военные и разведывательные системы».
Ранее другие американские компании, такие как OpenAI, также обвиняли DeepSeek в использовании подобных методов, но Anthropic представила более детальные данные.
Способы работы
По утверждениям Anthropic, компании применяли сети из тысяч фальшивых аккаунтов, называемых «кластерами гидры», чтобы распределять трафик через API и облачные сервисы. Запросы отличались высокой частотой и узкой специализацией на конкретных функциях, что больше характерно для обучения моделей, чем для действий обычных пользователей. Например, DeepSeek сделала более 150 000 запросов, сосредоточив внимание на логическом выводе и «безопасных» перезаписях политически чувствительных запросов.
Moonshot, разработчик модели Kimi, направил более 3,4 миллиона запросов, сосредоточенных на агентском мышлении, программировании и компьютерном зрении. MiniMax стал лидером по количеству запросов, с более чем 13 миллионами, направленными на агентское программирование. После выхода новой версии Claude компания перенаправила почти половину своего трафика в течение 24 часов, чтобы «заполучить» новые возможности.
Меры реагирования
Anthropic сообщила о намерении усилить защиту с целью затруднения и выявления подобных атак. В компании внедряют классификаторы и аналитические системы, позволяющие обнаруживать паттерны в трафике API, а также делятся техническими показателями с другими лабораториями в области ИИ и ужесточают процедуру верификации аккаунтов.
Кроме того, разрабатываются механизмы защиты на уровне продукта и модели для снижения возможности использования её выводов в незаконных целях, при этом не ухудшая пользовательский опыт для легитимных пользователей.