Google odnotowało gwałtowny wzrost liczby wyrafinowanych cyberataków mających na celu kradzież własności intelektualnej leżącej u podstaw modelu Gemini AI. Ataki te, zwane „atakami destylacyjnymi”, polegają na zalewaniu systemu przez atakujących dziesiątkami tysięcy zapytań AI w celu odtworzenia jego możliwości.
Kradzież sponsorowana przez państwo
Według raportu Google Threat Tracker głównymi uczestnikami tych kradzieży są grupy z siedzibą w Korei Północnej, Rosji i Chinach. Celem nie jest bezpośrednie wyrządzenie krzywdy użytkownikom, ale sklonowanie technologii Gemini do wykorzystania w innych modelach AI – zwłaszcza w językach innych niż angielski. Odzwierciedla to szerszy trend podmiotów państwowych wykorzystujących sztuczną inteligencję w celu uzyskania przewagi strategicznej.
Jak działa ekstrakcja modelu
Ataki te wykorzystują technikę zwaną ekstrakcją modelu. Atakujący korzystają z legalnego dostępu, aby sondować system sztucznej inteligencji, systematycznie zbierając wystarczającą ilość danych, aby wytrenować replikę modelu. Google zauważa, że przypomina to szpiegostwo przemysłowe, w ramach którego konkurenci kradną tajemnice handlowe.
Rosnący wyścig zbrojeń
Incydent uwydatnia nasilającą się konkurencję w przestrzeni AI. Firmy takie jak ByteDance (spółka-matka TikToka) w Chinach szybko opracowują zaawansowane narzędzia AI, rzucając wyzwanie dominacji firm amerykańskich. W zeszłym roku DeepSeek, kolejna chińska firma zajmująca się sztuczną inteligencją, wypuściła model dorównujący najnowocześniejszej technologii, co wywołało oskarżenia o naruszenie praw własności intelektualnej ze strony OpenAI.
Nie chodzi tylko o rywalizację techniczną; jest to kwestia geopolityczna. Modele sztucznej inteligencji stanowią obecnie infrastrukturę krytyczną, a ich kradzież stwarza ryzyko dla bezpieczeństwa narodowego. Jak wskazuje analityk Google John Hultquist, to prawdopodobnie dopiero początek: „Będziemy kanarek w kopalni węgla w przypadku znacznie większej liczby incydentów”.
Przyszłość bezpieczeństwa sztucznej inteligencji
Ten przypadek uwydatnia potrzebę wprowadzenia silniejszych środków bezpieczeństwa AI. Chociaż Google jest jedną z pierwszych dużych firm, która publicznie zgłasza takie ataki, luki w zabezpieczeniach są prawdopodobnie powszechne w całej branży. Ochrona własności intelektualnej AI będzie wymagać połączenia zabezpieczeń technicznych, egzekwowania prawa i współpracy międzynarodowej.
Kradzież modeli sztucznej inteligencji to nowa granica w cyberwojnie. Firmy i rządy muszą dostosować się do tej rzeczywistości, w przeciwnym razie ryzykują pozostaniem w tyle.






























