Социальные сети, когда-то задуманные как инструменты для общения, всё чаще захватываются искусственным контентом, заставляя пользователей чувствовать себя оторванными от реальности и изолированными. Стремительное распространение видео, изображений и дипфейков, созданных с помощью ИИ, кардинально меняет онлайн-опыт, вызывая обеспокоенность по поводу доверия, подлинности и будущего человеческого взаимодействия.
Расцвет «ИИ-Мусора»
Появление генеративных инструментов ИИ, таких как Sora от OpenAI, Veo от Google и Midjourney, сделало невероятно простым создание убедительно реалистичного, но полностью сфабрикованного контента. Это явление, получившее название «ИИ-мусор», относится к огромному потоку низкокачественного, часто бессмысленного цифрового материала, заполоняющего новостные ленты. От животных, демонстрирующих человеческое поведение, до невозможных розыгрышей – эти видео предназначены для шока, развлечения или обмана.
Дипфейки ещё больше усугубляют проблему, позволяя создавать реалистичные, но ложные изображения публичных личностей. Речь идёт не только о развлечении; речь идёт об уничтожении доверия к визуальным медиа и о том, что становится всё труднее отличить правду от вымысла.
Это важно, потому что сама основа социальных сетей – общий опыт – рушится под тяжестью искусственности. Бесконечный поток синтетического контента изматывает, и пользователям становится всё сложнее понять, что реально.
Бизнес Искусственности
Технологические компании заинтересованы в продвижении возможностей ИИ, даже ценой ухудшения пользовательского опыта. Как отмечает Алексиос Манцарлис, директор Инициативы по безопасности, доверию и защите Cornell Tech, эти платформы отдают приоритет росту котировок акций, а не подлинному общению.
Акцент на вовлечении, основанном на ИИ, особенно заметен на таких платформах, как TikTok, где алгоритмы отдают предпочтение вызывающему привыкание контенту, а не значимым взаимодействиям. Хотя пользователи могут получать удовольствие от знакомства с новыми темами, в результате часто возникает ощущение оторванности от реальных отношений.
Этот сдвиг не случаен. Технологические компании используют ИИ для максимального увеличения внимания пользователей, даже если это означает жертву подлинностью.
Разрушение Подлинности
До появления ИИ социальные сети уже боролись с нереалистичными стандартами и вымышленными личностями. Теперь проблема усугубляется способностью создавать полностью искусственную реальность. Пользователи не только сравнивают себя с недостижимыми идеалами, но и сомневаются в достоверности всего, что они видят в Интернете.
«Раньше у нас была проблема нереалистичных ожиданий относительно тела», — сказал Манцарлис. «А теперь мы сталкиваемся с миром нереалистичных ожиданий относительно тела».
Недоверие к контенту, сгенерированному ИИ, уже велико. Исследование Raptive показало, что почти половина респондентов инстинктивно не доверяет контенту, который, по их мнению, был создан ИИ, а 60% сообщили о более слабой эмоциональной связи.
Путь вперёд: Регулирование и Контроль Пользователей
Социальные сети начинают внедрять меры, такие как маркировка контента, сгенерированного ИИ, и запрет вредоносных дипфейков. Например, TikTok тестирует элементы управления, позволяющие пользователям ограничивать своё воздействие материала, созданного ИИ.
Однако в отсутствие надёжного государственного регулирования, которое в настоящее время застопорено из-за политических разногласий и лоббирования со стороны отрасли, бремя ложится на платформы, чтобы они сами применяли свою политику.
Критический вопрос в том, хватит ли этих усилий. Быстрые темпы развития ИИ предполагают, что регулирование не сможет угнаться.
В конечном счёте, будущее социальных сетей зависит от способности восстановить доверие и подлинность. Если платформам не удастся решить проблему разрушения реальности, они рискуют стать неактуальными, поскольку пользователи отступят от мира, где ничему нельзя доверять.
