Z nowego badania przeprowadzonego przez ETH Zurich wynika, że sztuczna inteligencja szybko zmniejsza anonimowość w Internecie. Naukowcy wykazali, że narzędzia sztucznej inteligencji mogą niezawodnie identyfikować osoby ukrywające się za pseudonimowymi kontami w mediach społecznościowych, dopasowując pozornie nieszkodliwe szczegóły publikowane na przestrzeni czasu. Rozwój ten ma istotne konsekwencje dla prywatności, nadzoru i bezpieczeństwa w Internecie.
Powstanie anonimizacji AI
Przez lata wielu użytkowników Internetu polegało na anonimowości, aby wyrażać opinie, dzielić się wrażliwymi informacjami lub uczestniczyć w niszowych społecznościach bez obawy przed realnymi konsekwencjami. Jednakże to założenie poufności nie jest już gwarantowane. Szwajcarskie badanie pokazuje, że duże modele językowe (LLM) mogą obecnie dopasowywać anonimowe konta do ich rzeczywistych odpowiedników z dokładnością do 68% i 90%, znacznie przewyższając ręczne metody dochodzenia.
Proces jest prosty: firmy LLM skanują sieć w poszukiwaniu fragmentarycznych danych osobowych (historia pracy, lokalizacja, zainteresowania), które ludzie nieświadomie ujawniają na różnych platformach. Nawet pozornie niewinne odniesienia do przeszłych prac lub rodzinnych miast rozsianych na przestrzeni lat mogą wystarczyć, aby zniszczyć anonimowość. Nie chodzi tu o nadludzką sztuczną inteligencję; mówimy o automatyzacji. LLM mogą przetwarzać dane znacznie szybciej i taniej niż jakikolwiek badacz-ludzki.
Kto jest najbardziej bezbronny?
Najbardziej bezbronni użytkownicy to ci, którzy konsekwentnie udostępniają dane osobowe pod pseudonimami, zwłaszcza osoby starsze lub niezaznajomione z zaawansowanymi praktykami w zakresie prywatności. Naukowcy odkryli, że im więcej informacji dana osoba ujawnia z biegiem czasu, tym łatwiej ją zdemaskować.
Stanowi to bezpośrednie zagrożenie dla sygnalistów, aktywistów, dziennikarzy i wszystkich osób, które polegają na anonimowości, aby chronić się przed inwigilacją, nękaniem lub cenzurą. Rządy mogą wykorzystywać tę technologię do identyfikowania dysydentów; korporacje – w celu reklamy hipertargetowanej lub profilowania klientów; i atakującym do przeprowadzania wysoce spersonalizowanych ataków wykorzystujących inżynierię społeczną.
Technologia kryjąca się za przełomem
Naukowcy zbudowali swój system, korzystając z publicznie dostępnych zbiorów danych z platform takich jak Hacker News, LinkedIn i Reddit. Przetestowali LLM, celowo dzieląc anonimowe konta Reddit i prosząc sztuczną inteligencję o dopasowanie ich do ich oryginalnych tożsamości. Wyniki były jasne: Anonimizacja za pomocą sztucznej inteligencji jest nie tylko możliwa, ale i coraz bardziej skuteczna.
Autorzy badania podkreślają, że technologia ta nie wymaga niezwykłej mocy obliczeniowej ani specjalistycznej wiedzy. Podstawowe mechanizmy już działają i oczekuje się, że w ciągu kilku lat zwykli użytkownicy będą mieli dostęp do narzędzi umożliwiających ujawnianie anonimowych kont.
Rozwiązanie: konta jednorazowe
Najskuteczniejszy sposób ochrony anonimowości w Internecie jest zaskakująco prosty: używaj jednorazowych kont do wrażliwych postów. Utworzenie jednorazowego profilu eliminuje ścieżkę danych osobowych wykorzystywaną przez LLM. Jeśli chcesz podzielić się czymś naprawdę wrażliwym, nie używaj tego samego konta, którego używasz od lat; utwórz nowy specjalnie do tego celu.
„Jeśli zależy Ci na tym, aby coś pozostało anonimowe, jeśli masz coś do ochrony, uważaj na to” – mówi Daniel Paleka, główny autor badania. „Podstawy tej technologii już istnieją. Jeśli nie ma żadnych ograniczeń, spodziewam się, że ktoś ją nadużyje”.
Czas ucieka, aby rozwiązać ten problem. W miarę jak narzędzia sztucznej inteligencji staną się bardziej dostępne, erozja anonimowości w Internecie będzie przyspieszać. Badanie stanowi sygnał ostrzegawczy, że użytkownicy, platformy i decydenci muszą działać już teraz, aby chronić prywatność, zanim całkowicie zniknie.
