Скандал в мире ИИ: американский стартап уличил китайские компании в «майнинге» Claude
Anthropic заявляет, что китайские лаборатории ИИ использовали Claude для обучения своих моделей
Generated by DALL·E
Основные обвинения Anthropic
Американская компания Anthropic, разработавшая известную модель ИИ Claude, публично заявила о масштабном использовании её системы конкурентами из Китая. По данным стартапа, три ведущие китайские лаборатории — DeepSeek, Moonshot AI и MiniMax — создали свыше 24 000 поддельных аккаунтов для взаимодействия с Claude более 16 миллионов раз. Эта активность, по мнению Anthropic, была направлена на ускоренное обучение собственных моделей через так называемую дистилляцию — метод, при котором меньшая модель учится на ответах более мощной.
Компания подчеркнула, что такие действия фактически позволяют извлечь ключевые способности Claude, включая рассуждение, использование инструментов и написание кода, без соответствующих затрат времени и ресурсов на самостоятельную разработку.
Что такое дистилляция и почему это вызывает споры
Дистилляция — законный подход в машинном обучении, помогающий создавать «облегчённые» версии больших моделей, обученных на выходных данных оригинала. Однако Anthropic отмечает, что неконтролируемое применение этой практики сторонними организациями рискованно: модели, обученные таким способом, скорее всего, не будут обладать теми же защитными механизмами, что оригинал. Это, по их мнению, может привести к нежелательным последствиям, включая возможность использования систем в кибероперациях, пропаганде или массовом наблюдении.
Связь с экспортными ограничениями и политическим контекстом
Обвинения прозвучали на фоне ожесточённой дискуссии в США о контроле экспорта высокопроизводительных ИИ-чипов в Китай. Власти США недавно разрешили экспорт определённых передовых графических ускорителей, что вызвало критику со стороны представителей технологической отрасли, в том числе руководства Anthropic. Оно считает, что поставки мощных процессоров увеличивают доступ китайских компаний к вычислительным мощностям, необходимым для обучения современных ИИ-систем, и тем самым усугубляют риски потери технологического лидерства США.
Гендиректор Anthropic, по сообщениям, охарактеризовал текущие поставки как угрозу национальной безопасности и подчеркнул, что такие решения могут подорвать технологическое преимущество американских разработчиков в долгосрочной перспективе.
Реакции отрасли и будущие шаги
Anthropic призвала технологическое сообщество, провайдеров облачных услуг и законодателей координировать усилия для борьбы с неправомерным использованием моделей через дистилляцию и усилить механизмы контроля за доступом к своим системам. Стартап также заявил, что продолжит инвестировать в технологии защиты, которые помогут своевременно выявлять и затруднять такие кампании.
Представители DeepSeek, Moonshot AI и MiniMax на момент публикации не дали официальных комментариев.