Искусственный интеллект стремительно разрушает онлайн-анонимность, согласно новым исследованиям ETH Zurich. Ученые продемонстрировали, что инструменты ИИ могут надёжно идентифицировать людей, скрывающихся за псевдонимными аккаунтами в социальных сетях, сопоставляя, казалось бы, безобидные детали, опубликованные с течением времени. Это развитие имеет значительные последствия для конфиденциальности, наблюдения и онлайн-безопасности.
Расцвет ИИ-Обезличивания
На протяжении многих лет многие интернет-пользователи полагались на анонимность, чтобы выражать мнения, делиться конфиденциальной информацией или участвовать в нишевых сообществах без страха реальных последствий. Однако эта предпосылка о конфиденциальности больше не гарантирована. Швейцарское исследование показывает, что большие языковые модели (LLM) теперь могут сопоставлять анонимные учетные записи с их реальными аналогами с точностью до 68% и с точностью 90% – что значительно превосходит результаты ручных методов расследования.
Процесс прост: LLM сканируют сеть в поисках фрагментированных личных данных (история работы, местоположение, хобби), которые люди неосознанно раскрывают на различных платформах. Даже, казалось бы, безобидные упоминания о прошлых местах работы или родных городах, разбросанные по годам, могут быть достаточными для разрушения анонимности. Дело не в сверхчеловеческом ИИ; речь идёт об автоматизации. LLM могут обрабатывать данные гораздо быстрее и дешевле, чем любой человеческий следователь.
Кто Наиболее Уязвим?
Наиболее уязвимыми пользователями являются те, кто последовательно делится личными данными под псевдонимами, особенно пожилые люди или те, кто не знаком с продвинутыми методами обеспечения конфиденциальности. Исследователи обнаружили, что чем больше информации человек раскрывает со временем, тем легче его разоблачить.
Это представляет прямую угрозу для информаторов, активистов, журналистов и всех, кто полагается на анонимность для защиты от слежки, преследований или цензуры. Правительства могут использовать эту технологию для выявления диссидентов; корпорации – для гипертаргетированной рекламы или профилирования клиентов; а злоумышленники – для запуска высокоперсонализированных атак социальной инженерии.
Технология, Стоящая За Прорывом
Исследователи создали свою систему, используя общедоступные наборы данных с таких платформ, как Hacker News, LinkedIn и Reddit. Они протестировали LLM, намеренно разделив анонимизированные учетные записи Reddit и предложив ИИ сопоставить их с исходными личностями. Результаты были ясны: обезличивание с помощью ИИ не только возможно, но и становится все более эффективным.
Авторы исследования подчеркивают, что для этой технологии не требуются экстраординарные вычислительные мощности или специализированные знания. Основные механизмы уже существуют, и они предполагают, что в течение нескольких лет обычные пользователи получат доступ к инструментам, способным разоблачать анонимные учетные записи.
Решение: Одноразовые Аккаунты
Самый эффективный способ защитить онлайн-анонимность на удивление прост: используйте одноразовые аккаунты для конфиденциальных публикаций. Создание профиля для одноразового использования устраняет след личных данных, который используют LLM. Если вам нужно поделиться чем-то действительно конфиденциальным, не используйте ту же учетную запись, которую вы использовали в течение многих лет; создайте новую специально для этой цели.
«Если вам небезразлично, чтобы что-то оставалось анонимным, если вам есть что защищать, будьте внимательны к этому», – говорит Даниэль Палека, ведущий автор исследования. «Фундамент технологии уже есть. Если не будет никаких ограничений, я полностью ожидаю, что кто-то злоупотребит ею».
Время для решения этой проблемы истекает. По мере того, как инструменты ИИ становятся более доступными, разрушение онлайн-анонимности будет ускоряться. Исследование служит сигналом тревоги: пользователи, платформы и политики должны действовать сейчас, чтобы защитить конфиденциальность, прежде чем она исчезнет полностью.
