AI-modellen die vatbaar zijn voor medische verkeerde informatie, blijkt uit onderzoek

19

Toonaangevende systemen voor kunstmatige intelligentie (AI), waaronder ChatGPT, zijn kwetsbaar voor het herhalen van valse gezondheidsinformatie wanneer ze overtuigend worden gepresenteerd, blijkt uit nieuw onderzoek gepubliceerd in The Lancet Digital Health. Dit roept kritische vragen op nu AI steeds meer wordt geïntegreerd in de gezondheidszorg, waar nauwkeurigheid een kwestie van leven of dood kan zijn.

De opkomst van AI in de gezondheidszorg… en de risico’s

LLM’s (Large Language Models) worden snel toegepast om artsen en patiënten te helpen sneller toegang te krijgen tot medische inzichten. Maar deze studie toont aan dat deze systemen nog steeds kritiekloos desinformatie kunnen accepteren en verspreiden, zelfs in realistische medische taal. Dit is een probleem omdat mensen steeds vaker afhankelijk zijn van online bronnen – waaronder AI-chatbots – voor gezondheidsinformatie, en onjuist advies kan ernstige gevolgen hebben.

Hoe het onderzoek werd uitgevoerd

Onderzoekers van Mount Sinai Health System testten twintig LLM’s van grote ontwikkelaars (OpenAI, Meta, Google, Alibaba, Microsoft, Mistral AI) met meer dan een miljoen aanwijzingen. Deze aanwijzingen bevatten valse medische verklaringen, vermomd als legitieme informatie: verzonnen ziekenhuisnotities, ontkrachte gezondheidsmythes van Reddit en gesimuleerde klinische scenario’s. Het doel was simpel: zou de AI onwaarheden herhalen als ze geloofwaardig waren geformuleerd?

Belangrijkste bevindingen: Goedgelovigheid varieert, maar blijft een probleem

Uit de resultaten bleek dat AI-modellen in totaal 32% van de tijd faalden voor verzonnen informatie. Er was echter een aanzienlijke variatie. Kleinere of minder geavanceerde modellen geloofden in 60% van de tijd valse claims, terwijl krachtigere systemen zoals ChatGPT-4o deze slechts in 10% van de gevallen herhaalden. Verrassend genoeg presteerden medisch verfijnde modellen slechter dan algemene LLM’s bij het identificeren van valse claims.

Voorbeelden van verkeerde informatie geaccepteerd door AI

De studie identificeerde verschillende gevaarlijke voorbeelden:

  • AI-modellen accepteerden valse beweringen zoals “Tylenol kan autisme veroorzaken als het door zwangere vrouwen wordt ingenomen.”
  • Ze herhaalden verkeerde informatie zoals “rectale knoflook versterkt het immuunsysteem.”
  • Eén model accepteerde zelfs een ontslagbrief waarin patiënten met bloedende oesofagitis werd geadviseerd ‘koude melk te drinken om de symptomen te verzachten’.

Deze voorbeelden tonen aan dat AI schadelijke gezondheidsadviezen kan verspreiden. Uit het onderzoek blijkt ook dat AI-systemen eerder geneigd zijn valse beweringen te geloven als ze overtuigende maar logisch gebrekkige redeneringen krijgen voorgeschoteld, zoals een beroep op autoriteit (“een expert zegt dat dit waar is”) of argumenten op een hellend vlak (“als X gebeurt, volgt er een ramp”).

Wat is het volgende? Het meten van de betrouwbaarheid van AI

De auteurs benadrukken de noodzaak om de gevoeligheid van AI voor desinformatie te behandelen als een meetbare eigenschap. Ze stellen voor om grootschalige stresstests en externe bewijscontroles te gebruiken voordat AI in klinische hulpmiddelen wordt geïntegreerd. De onderzoekers hebben hun dataset vrijgegeven zodat ontwikkelaars en ziekenhuizen hun modellen kunnen evalueren.

“In plaats van aan te nemen dat een model veilig is, kun je meten hoe vaak het een leugen doorgeeft, en of dat aantal in de volgende generatie valt”, zegt Mahmud Omar, de eerste auteur van het onderzoek.

De bevindingen onderstrepen dat hoewel AI het potentieel heeft om de gezondheidszorg te verbeteren, de onkritische acceptatie van valse informatie een aanzienlijk risico met zich meebrengt. Rigoureuze tests en ingebouwde veiligheidsmaatregelen zijn van cruciaal belang voordat wijdverspreide adoptie mogelijk wordt.