Соціальні мережі, які колись створювалися як інструменти для спілкування, все частіше захоплюються штучним контентом, змушуючи користувачів почуватися відключеними та ізольованими. Поширення відео, зображень і дипфейків, створених за допомогою штучного інтелекту, різко змінює онлайн-досвід, викликаючи занепокоєння щодо довіри, автентичності та майбутнього людської взаємодії.
Зростання “AI Garbage”
Поява генеративних інструментів штучного інтелекту, таких як Sora від OpenAI, Veo від Google і Midjourney, дозволила неймовірно легко створювати переконливо реалістичний, але повністю сфабрикований контент. Це явище, яке називають «сміттям штучного інтелекту», стосується масового напливу низькоякісних, часто безглуздих цифрових матеріалів, які заповнюють стрічки новин. Від тварин, що демонструють людську поведінку, до неможливих жартів, ці відео покликані шокувати, розважати чи вводити в оману.
Deepfakes ще більше погіршують проблему, створюючи реалістичні, але фальшиві образи публічних осіб. Це не лише розваги; йдеться про руйнування довіри до візуальних медіа та про те, що стає все важче відрізнити правду від вигадки.
Це важливо, тому що сама основа соціальних медіа — спільний досвід — руйнується під вагою штучності. Нескінченний потік синтетичного контенту виснажує, тому користувачам стає все важче зрозуміти, що є справжнім.
Бізнес штучності
Технічні компанії зацікавлені в розширенні можливостей штучного інтелекту навіть ціною погіршення користувацького досвіду. Як зазначає Алексіос Манцарліс, директор Ініціативи безпеки, довіри та безпеки Cornell Tech, ці платформи віддають перевагу підвищенню цін на акції, а не справжньому спілкуванню.
Зосередженість на залученні, керованому штучним інтелектом, особливо помітна на таких платформах, як TikTok, де алгоритми віддають перевагу вмісту, що викликає залежність, а не значущим взаємодіям. Хоча користувачам може бути приємно досліджувати нові теми, результатом часто є відчуття відриву від стосунків у реальному житті.
Ця зміна не випадкова. Технічні компанії використовують ШІ, щоб максимально привернути увагу користувачів, навіть якщо це означає жертвувати автентичністю.
Знищення автентичності
До ШІ соціальні медіа вже боролися з нереалістичними стандартами та вигаданими особами. Тепер проблема ускладнюється можливістю створити абсолютно штучну реальність. Користувачі не тільки порівнюють себе з недосяжними ідеалами, але й ставлять під сумнів достовірність усього, що бачать в Інтернеті.
«Раніше у нас були проблеми з нереалістичними очікуваннями щодо тіла», — сказав Манцарліс. «І тепер ми стикаємося зі світом нереалістичних очікувань щодо тіла».
Недовіра до контенту, створеного ШІ, вже висока. Дослідження Raptive показало, що майже половина респондентів інстинктивно не довіряють контенту, який, на їхню думку, був створений ШІ, а 60% повідомили про слабший емоційний зв’язок.
Шлях вперед: регулювання та контроль користувачів
Компанії соціальних мереж починають впроваджувати такі заходи, як маркування контенту, створеного штучним інтелектом, і заборона шкідливих дипфейків. Наприклад, TikTok тестує елементи керування, щоб дозволити користувачам обмежити свій вплив на матеріал, створений ШІ.
Однак за відсутності надійного державного регулювання, яке наразі зупинилося через політичні розбіжності та галузеве лобіювання, відповідальність за впровадження власної політики лягає на платформи.
Головне питання полягає в тому, чи буде достатньо цих зусиль. Швидкі темпи розвитку штучного інтелекту вказують на те, що регулювання не встигне.
Зрештою, майбутнє соціальних мереж залежить від здатності відновити довіру та автентичність. Якщо платформи не впораються з порушенням реальності, вони ризикують стати неактуальними, оскільки користувачі відступають від світу, де нічому не можна довіряти.
