Утечка данных: Анонимная группа в Discord заявляет о доступе к высокорисковой ИИ-модели Anthropic

16

Анонимная группа пользователей в Discord утверждает, что им удалось обойти меры безопасности и получить доступ к Claude Mythos Preview — сверхчувствительной, еще не выпущенной ИИ-модели от компании Anthropic. Данный инцидент вызывает особую тревогу из-за специфических возможностей, которыми обладает эта модель.

Ставки высоки: модель, созданная для кибервойн

Anthropic классифицировала Claude Mythos как инструмент, способный кардинально изменить правила игры, что несет в себе серьезные последствия для безопасности. По заявлениям компании, модель способна:
— Выявлять уязвимости нулевого дня (ранее неизвестные бреши) в крупнейших операционных системах.
— Эксплуатировать слабые места во всех основных веб-браузерах.

Из-за этих возможностей Anthropic держала модель под строжайшим контролем в рамках Project Glasswing. Эта инициатива, доступная только по приглашениям, была разработана для предоставления доступа узкому кругу технологических лидеров с заявленной целью: использовать ИИ для защиты критически важного мирового программного обеспечения. Однако сообщения о взломе указывают на то, что инструмент, призванный переосмыслить кибербезопасность, мог быть скомпрометирован из-за простых человеческих и процедурных ошибок.

Как произошел взлом: догадки и инсайдерский доступ

Вопреки ожиданиям от взлома с использованием столь мощного ИИ, вторжение не было результатом сложной технической атаки. Вместо этого оно стало сочетанием распознавания закономерностей и помощи изнутри:

  1. Распознавание закономерностей: Используя данные из недавней утечки в ИИ-стартапе Mercor, группа вычислила систему именования, используемую Anthropic. Это позволило им угадать сетевое расположение невыпущенной модели.
  2. Инсайдерский доступ: Как только местоположение было определено, группа воспользовалась привилегированным доступом, предоставленным участником, который работал на стороннего подрядчика Anthropic.

Группа действует в закрытом канале Discord, посвященном поиску информации о невыпущенных моделях ИИ. Хотя участники утверждают, что используют инструмент для безобидных задач — например, для создания простых веб-сайтов — они также заявили, что имеют доступ к еще более секретным моделям Anthropic.

Текущая ситуация

Компания Anthropic подтвердила изданию Bloomberg, что осведомлена о данных заявлениях и в настоящее время проводит расследование. Хотя группа предоставила достаточно доказательств, подтверждающих их доступ, на данный момент нет признаков того, что систему взломали другие посторонние лица.

Данный инцидент подчеркивает растущую напряженность в индустрии ИИ: по мере того как модели становятся всё более способными автоматизировать кибератаки, протоколы безопасности, защищающие их, должны становиться экспоненциально более надежными.

Заключение

Сообщения о доступе к Claude Mythos обнажают критическую уязвимость в том, как компании, занимающиеся ИИ, управляют высокочувствительными и высокорисковыми моделями. Если к модели, способной изменить облик кибербезопасности, можно получить доступ путем простого угадывания и через учетные записи подрядчиков, это ставит острые вопросы о безопасности следующего поколения искусственного интеллекта.