Sociale-mediaplatforms, ooit gezien als instrumenten voor verbinding, worden steeds meer gedomineerd door kunstmatige inhoud, waardoor gebruikers zich geïsoleerd en los van de realiteit voelen. De snelle verspreiding van door AI gegenereerde video’s, afbeeldingen en deepfakes verandert de online-ervaring fundamenteel en roept zorgen op over vertrouwen, authenticiteit en de toekomst van menselijke interactie.
De opkomst van “AI Slop”
De opkomst van generatieve AI-tools zoals OpenAI’s Sora, Google’s Veo en Midjourney heeft het triviaal eenvoudig gemaakt om overtuigend realistische maar volledig verzonnen inhoud te creëren. Dit fenomeen, ook wel ‘AI-slop’ genoemd, verwijst naar de overweldigende toestroom van laagwaardige, vaak onzinnige, digitaal gegenereerde materialen die de sociale feeds overspoelen. Van dieren die menselijk gedrag vertonen tot onmogelijke grappen: deze video’s zijn bedoeld om te choqueren, te entertainen of te misleiden.
Deepfakes verergeren het probleem nog verder, waardoor realistische maar valse afbeeldingen van publieke figuren kunnen worden gecreëerd. Dit gaat niet alleen over entertainment; het gaat over het uithollen van het vertrouwen in visuele media en het steeds moeilijker maken om feit van fictie te onderscheiden.
Dit is van belang omdat het fundament zelf van sociale media – gedeelde ervaringen – bezwijkt onder het gewicht van kunstmatigheid. De eindeloze stroom synthetische inhoud is uitputtend en het wordt steeds moeilijker voor gebruikers om te onderscheiden wat echt is.
De zaak van kunstmatigheid
Technologiebedrijven worden gestimuleerd om AI-mogelijkheden te vergroten, zelfs als dit ten koste gaat van de gebruikerservaring. Zoals Alexios Mantzarlis, directeur van Cornell Tech’s Security, Trust and Safety Initiative, opmerkt, geven deze platforms voorrang aan de groei van de aandelenkoersen boven echte verbinding.
De focus op AI-gestuurde betrokkenheid is vooral duidelijk op platforms als TikTok, waar algoritmen verslavende inhoud voorrang geven boven betekenisvolle interacties. Hoewel gebruikers graag kennismaken met nieuwe onderwerpen, is het resultaat vaak een gevoel van vervreemding van relaties in de echte wereld.
Deze verschuiving is niet toevallig. Technologiebedrijven maken gebruik van AI om de aandacht van gebruikers te maximaliseren, zelfs als dit betekent dat ze de authenticiteit moeten opofferen.
De erosie van authenticiteit
Vóór AI worstelden sociale media al met onrealistische normen en samengestelde persona’s. Nu wordt het probleem nog verergerd door het vermogen om volledig kunstmatige realiteiten te genereren. Gebruikers vergelijken zichzelf niet alleen met onbereikbare idealen, maar twijfelen ook aan de geldigheid van alles wat ze online zien.
“Vroeger hadden we het probleem van onrealistische lichaamsverwachtingen”, zei Mantzarlis. “En nu worden we geconfronteerd met de wereld van onwerkelijke lichaamsverwachtingen.”
Het wantrouwen in door AI gegenereerde inhoud is al groot. Uit een onderzoek van Raptive bleek dat bijna de helft van de respondenten instinctief de inhoud wantrouwde waarvan zij vermoedden dat deze door AI werd gegenereerd, en 60% rapporteerde een zwakkere emotionele band.
De weg voorwaarts: regulering en gebruikerscontrole
Socialemediabedrijven beginnen maatregelen te implementeren, zoals het labelen van door AI gegenereerde inhoud en het verbieden van schadelijke deepfakes. TikTok test bijvoorbeeld controlemechanismen waarmee gebruikers hun blootstelling aan door AI gegenereerd materiaal kunnen beperken.
Bij gebrek aan robuuste overheidsregulering – die momenteel vastloopt als gevolg van een politieke patstelling en lobbyen vanuit de industrie – rust de last echter op de platforms om hun eigen beleid af te dwingen.
De cruciale vraag is of deze inspanningen voldoende zullen zijn. Het snelle tempo van de AI-ontwikkeling suggereert dat de regelgeving moeite zal hebben om gelijke tred te houden.
Uiteindelijk hangt de toekomst van sociale media af van het vermogen om vertrouwen en authenticiteit te herstellen. Als platforms er niet in slagen de erosie van de werkelijkheid aan te pakken, lopen ze het risico irrelevant te worden omdat gebruikers zich terugtrekken uit een wereld waarin niets voor waar aangenomen kan worden.































