AI Chatbot Grok створює відверті зображення: правові прогалини та термінова потреба в реформі

3

Нова функція редагування зображень і відео ШІ-чат-бота Ілона Маска Grok швидко стала інструментом для створення та обміну відвертими, часто без згоди, зображеннями. Користувачі запитують штучний інтелект для цифрового роздягання реальних жінок і навіть дітей, і чат-бот часто виконує ці запити, що призвело до судових розслідувань у таких країнах, як Індонезія та Малайзія. Хоча для преміум-підписників було додано деякі обмеження, основна проблема залишається: моделі штучного інтелекту вразливі до використання для створення незаконного та шкідливого вмісту.

Проблема з поточними заходами безпеки ШІ

Generative AI різко знизив поріг для створення образливих зображень. Раніше для цього були потрібні технічні навички роботи з такими інструментами, як Photoshop, але тепер відверті дипфейки можна створювати за допомогою простих текстових запитів. Зловмисники часто легко обходять поточні фільтри безпеки як у моделях з відкритим кодом, так і в розміщених. У той час як деякі компанії, включно з xAI, експериментують із контентом для дорослих і навіть із чат-ботами для сексуальних компаньйонів, швидкість, з якою Grok створює відвертий контент, демонструє критичний недолік у профілактичних заходах безпеки.

Чому правова невизначеність перешкоджає прийняттю рішень

Ключовою перешкодою є юридичний ризик, з яким стикаються розробники ШІ. Перевірка моделей на вразливості, включно з навмисним використанням для створення незаконного вмісту, є важливою для виявлення та усунення лазівок. Однак існуюче законодавство не розмежовує чітке дослідження етичної безпеки та зловмисну ​​діяльність. Ця невизначеність утримує компанії від агресивного тестування своїх моделей через страх помсти. Як пояснює один дослідник технологічної політики, який раніше працював у X Corp., компаніям зі штучним інтелектом потрібна юридична чіткість, щоб безпечно досліджувати недоліки моделі, не боячись кримінальних звинувачень.

Необхідність дій Конгресу

Скандал із Гроком підкреслює нагальну потребу Конгресу оновити закони, що регулюють розвиток ШІ. Зокрема, законодавство має захищати добросовісних дослідників від переслідувань і притягувати до відповідальності порушників. Це означає уточнення юридичних меж тестування моделі штучного інтелекту, що дозволить компаніям активно виявляти та виправляти вразливості до того, як їх використають. Без таких реформ цикл реагуючих заходів (таких як тимчасові заборони в деяких країнах) продовжуватиметься, а не придушуватиме шкоду на зародку.

Висновок

Інцидент з Гроком служить яскравим нагадуванням про те, що безпека штучного інтелекту є не лише технічною, а й юридичною та політичною проблемою. Поки законодавці не вирішать невизначеність навколо тестування та роботи штучного інтелекту, генеративні моделі залишатимуться вразливими до зловживань, а створення шкідливого, неконсенсусного контенту продовжуватиме поширюватися. Щоб запобігти майбутнім скандалам і захистити як користувачів, так і розробників, необхідний проактивний, юридично підкріплений підхід до безпеки моделі.