Google сообщила о резком увеличении числа сложных кибератак, направленных на кражу интеллектуальной собственности, лежащей в основе её AI-модели Gemini. Эти атаки, получившие название «атаки дистилляции», заключаются в том, что злоумышленники заваливают систему десятьками тысяч AI-запросов, чтобы реконструировать её возможности.
Государственно спонсируемая кража
Согласно отчёту Google Threat Tracker, основными участниками этих краж являются группы, базирующиеся в Северной Корее, России и Китае. Цель состоит не в том, чтобы напрямую навредить пользователям, а в клонировании технологии Gemini для использования в других AI-моделях — особенно на языках, отличных от английского. Это отражает более широкую тенденцию, когда государственные субъекты используют AI для получения стратегического преимущества.
Как работает извлечение модели
Эти атаки используют технику, называемую извлечением модели. Злоумышленники используют законный доступ, чтобы зондировать AI-систему, систематически собирая достаточно данных для обучения реплики модели. Google отмечает, что это похоже на промышленный шпионаж, когда конкуренты крадут коммерческие тайны.
Растущая гонка вооружений
Инцидент подчёркивает обостряющуюся конкуренцию в AI-пространстве. Компании, такие как ByteDance (родительская компания TikTok) в Китае, быстро разрабатывают передовые AI-инструменты, бросая вызов доминированию американских фирм. В прошлом году DeepSeek, ещё одна китайская AI-компания, выпустила модель, которая соперничала с передовыми технологиями, что вызвало обвинения в нарушении интеллектуальной собственности со стороны OpenAI.
Речь идёт не только о техническом соперничестве; это геополитический вопрос. AI-модели теперь являются критически важной инфраструктурой, и их кража представляет риски для национальной безопасности. Как отмечает аналитик Google Джон Хултквист, это, вероятно, только начало: «Мы будем как канарейка в шахте для гораздо большего количества инцидентов.»
Будущее AI-безопасности
Этот случай подчёркивает необходимость более сильных мер по обеспечению безопасности AI. Хотя Google является одной из первых крупных компаний, публично сообщивших о таких атаках, уязвимости в масштабах всей отрасли, вероятно, распространены. Защита интеллектуальной собственности AI потребует сочетания технических мер защиты, правоприменения и международного сотрудничества.
Кража AI-моделей — это новый рубеж кибервойны. Компании и правительства должны адаптироваться к этой реальности, иначе рискуют отстать.






























