AI Chatbot Grok generuje explicitní obrázky: Právní mezery a naléhavá potřeba reformy

14

Nová funkce pro úpravu obrázků a videa od Elona Muska AI chatbota Groka se rychle stala nástrojem pro vytváření a sdílení explicitních, často nesouhlasných obrázků. Uživatelé požadují AI, aby digitálně svlékla skutečné ženy a dokonce i děti, a chatbot tyto požadavky často plní, což vedlo k právnímu vyšetřování v zemích, jako je Indonésie a Malajsie. Ačkoli byla přidána určitá omezení pro prémiové předplatitele, hlavní problém zůstává: Modely umělé inteligence jsou náchylné k zneužití k vytváření nelegálního a škodlivého obsahu.

Problém se současnými bezpečnostními opatřeními AI

Generativní AI dramaticky snížila práh pro vytváření urážlivých obrázků. Dříve to vyžadovalo technické dovednosti v nástrojích, jako je Photoshop, ale nyní lze pomocí jednoduchých textových dotazů vytvářet do očí bijící deepfakes. Současné bezpečnostní filtry v modelech s otevřeným zdrojovým kódem i v hostovaných modelech útočníci často snadno obcházejí. Zatímco některé společnosti, včetně xAI, experimentují s obsahem pro dospělé a dokonce i s chatboty se sexuálními partnery, rychlost, s jakou Grok vytváří explicitní obsah, ukazuje kritickou chybu v preventivních bezpečnostních opatřeních.

Proč právní nejistota brání rozhodování

Klíčovou překážkou je právní riziko, kterému vývojáři AI čelí. Testování modelů na zranitelnost – včetně záměrného zneužívání k vytváření nelegálního obsahu – je nezbytné pro identifikaci a odstranění mezer. Stávající zákony však jasně nerozlišují mezi výzkumem etické bezpečnosti a škodlivými činnostmi. Tato nejistota brání společnostem v agresivním testování svých modelů ze strachu z odvety. Jak vysvětluje jeden z výzkumníků technologických zásad, dříve ze společnosti X Corp., Společnosti s umělou inteligencí potřebují právní jistotu, aby mohly bezpečně prozkoumat slabé stránky modelu, aniž by se musely obávat obvinění z trestného činu.

Potřeba akce Kongresu

Skandál Grok podtrhuje naléhavou potřebu, aby Kongres aktualizoval zákony upravující vývoj AI. Legislativa by měla zejména chránit výzkumné pracovníky v dobré víře před pronásledováním a zároveň pohnat pachatele k odpovědnosti. To znamená vyjasnění právních hranic testování modelů umělé inteligence, což společnostem umožní proaktivně identifikovat a opravit zranitelnosti před jejich zneužitím. Bez takových reforem bude koloběh reaktivních opatření (jako jsou dočasné zákazy v některých zemích) pokračovat, spíše než snižovat škody v zárodku.

Závěr

Incident Groka slouží jako ostrá připomínka, že bezpečnost umělé inteligence není jen technický problém, ale také právní a politický problém. Dokud zákonodárci nevyřeší nejistotu kolem testování a provozu umělé inteligence, generativní modely zůstanou zranitelné vůči zneužití a bude se nadále množit vytváření škodlivého obsahu bez souhlasu. Proaktivní, právně podložený přístup k zabezpečení modelu je nezbytný, aby se předešlo budoucím skandálům a ochránili jak uživatelé, tak vývojáře.