Umělá inteligence rychle narušuje online anonymitu, podle nového výzkumu ETH Zurich. Vědci prokázali, že nástroje umělé inteligence dokážou spolehlivě identifikovat lidi skrývající se za pseudonymními účty na sociálních sítích tím, že přiřazují zdánlivě neškodné podrobnosti zveřejněné v průběhu času. Tento vývoj má významné důsledky pro soukromí, dohled a online bezpečnost.
Vzestup AI-anonymizace
V průběhu let se mnoho uživatelů internetu spoléhalo na anonymitu při vyjadřování názorů, sdílení citlivých informací nebo účasti ve specializovaných komunitách bez obav ze skutečných následků. Tento předpoklad důvěrnosti však již není zaručen. Švýcarská studie ukazuje, že velké jazykové modely (LLM) nyní dokážou přiřadit anonymní účty ke svým reálným protějškům s až 68% přesností a 90% přesností – což výrazně předčí manuální vyšetřovací metody.
Proces je jednoduchý: LLM vyhledávají na webu fragmentovaná osobní data (pracovní historie, poloha, koníčky), které lidé nevědomky odhalují na různých platformách. Dokonce i zdánlivě neškodné odkazy na minulá zaměstnání nebo rodná města roztroušená v průběhu let mohou stačit ke zničení anonymity. Není to o nadlidské umělé inteligenci; mluvíme o automatizaci. LLM mohou zpracovávat data mnohem rychleji a levněji než jakýkoli lidský vyšetřovatel.
Kdo je nejvíce zranitelný?
Nejzranitelnějšími uživateli jsou ti, kteří neustále sdílejí osobní údaje pod pseudonymy, zejména starší lidé nebo ti, kteří neznají pokročilé postupy ochrany osobních údajů. Vědci zjistili, že čím více informací člověk v průběhu času odhalí, tím snáze ho odhalí.
To představuje přímou hrozbu pro informátory, aktivisty, novináře a kohokoli, kdo spoléhá na anonymitu, aby se chránil před sledováním, obtěžováním nebo cenzurou. Vlády mohou tuto technologii použít k identifikaci disidentů; korporace – pro hyper-cílenou reklamu nebo profilování zákazníků; a útočníky, aby zahájili vysoce personalizované útoky sociálního inženýrství.
Technologie stojící za průlomem
Výzkumníci postavili svůj systém pomocí veřejně dostupných datových sad z platforem jako Hacker News, LinkedIn a Reddit. Testovali LLM tak, že záměrně rozdělili anonymizované účty Reddit a požádali AI, aby je porovnala s jejich původní identitou. Výsledky byly jasné: Anonymizace pomocí AI je nejen možná, ale stále efektivnější.
Autoři studie zdůrazňují, že tato technologie nevyžaduje mimořádný výpočetní výkon ani specializované znalosti. Základní mechanismy již fungují a očekávají, že během pár let budou mít běžní uživatelé přístup k nástrojům schopným odhalit anonymní účty.
Řešení: Jednorázové účty
Nejúčinnější způsob ochrany online anonymity je překvapivě jednoduchý: používejte jednorázové účty pro citlivé příspěvky. Vytvoření jednorázového profilu eliminuje stopu osobních údajů, kterou využívají LLM. Pokud potřebujete sdílet něco opravdu citlivého, nepoužívejte stejný účet, který používáte roky; vytvořit nový speciálně pro tento účel.
„Pokud vám záleží na tom, aby něco zůstalo anonymní, pokud máte co chránit, dejte si na to pozor,“ říká Daniel Paleka, hlavní autor studie. “Základ technologie už existuje. Pokud nebudou existovat žádná omezení, plně očekávám, že to někdo zneužije.”
Čas na vyřešení tohoto problému se krátí. S tím, jak se nástroje umělé inteligence stanou dostupnějšími, zrychlí se eroze online anonymity. Studie slouží jako budíček, že uživatelé, platformy a tvůrci politik musí nyní jednat, aby ochránili soukromí, než úplně zmizí.
