Крадіжка AI-моделей: Хакери атакують Gemini масовими запитами

2

Google повідомила про різке збільшення числа складних кібератак, спрямованих на крадіжку інтелектуальної власності, що лежить в основі її моделі AI-моделі Gemini. Ці атаки, що отримали назву «атаки дистиляції», полягають у тому, що зловмисники завалюють систему десятками тисяч AI-запитів, щоб реконструювати її можливості.

Державно спонсорована крадіжка

Згідно з звітом Google Threat Tracker, основними учасниками цих крадіжок є групи, що базуються в Північній Кореї, Росії та Китаї. Ціль полягає не в тому, щоб безпосередньо нашкодити користувачам, а в клонуванні технології Gemini для використання в інших AI-моделях – особливо мовами, відмінними від англійської. Це відбиває ширшу тенденцію, коли державні суб’єкти використовують AI щоб одержати стратегічного переваги.

Як працює витяг моделі

Ці атаки використовують техніку, яка називається вилученням моделі. Зловмисники використовують законний доступ, щоб зондувати AI-систему, систематично збираючи достатньо даних для навчання моделі репліки. Google зазначає, що це схоже на промисловий шпигунство, коли конкуренти крадуть комерційні таємниці.

Гонка озброєнь, що зростає

Інцидент підкреслює конкуренцію, що загострюється в AI-просторі. Компанії, такі як ByteDance (батьківська компанія TikTok) у Китаї, швидко розробляють передові AI-інструменти, кидаючи виклик домінуванню американських фірм. Минулого року DeepSeek, ще одна китайська AI-компанія, випустила модель, яка суперничала з передовими технологіями, що викликало звинувачення у порушенні інтелектуальної власності з боку OpenAI**.

Мова йде не лише про технічне суперництво; це геополітичне питання. AI-моделі тепер є критично важливою інфраструктурою, і їх крадіжка становить ризик для національної безпеки. Як зазначає аналітик Google Джон Хултквіст, це, ймовірно, лише початок: “Ми будемо як канарка в шахті для набагато більшої кількості інцидентів.”

Майбутнє AI-безпеки

Цей випадок наголошує на необхідності сильніших заходів щодо забезпечення безпеки AI. Хоча Google є однією з перших великих компаній, які публічно повідомили про такі атаки, вразливість у масштабах усієї галузі, ймовірно, поширені. Захист інтелектуальної власності AI вимагатиме поєднання технічних заходів захисту, правозастосування та міжнародного співробітництва.

Крадіжка AI-моделей – це новий рубіж кібервійни. Компанії та уряди мають адаптуватися до цієї реальності, інакше ризикують відстати.