Modelli di intelligenza artificiale sensibili alla disinformazione medica, risultati di uno studio

10

I principali sistemi di intelligenza artificiale (AI), incluso ChatGPT, sono vulnerabili alla ripetizione di false informazioni sanitarie se presentate in modo convincente, secondo una nuova ricerca pubblicata su The Lancet Digital Health. Ciò solleva preoccupazioni critiche in quanto l’intelligenza artificiale diventa sempre più integrata nell’assistenza sanitaria, dove l’accuratezza può essere una questione di vita o di morte.

L’ascesa dell’intelligenza artificiale nel settore sanitario… e i rischi

Gli LLM (Large Language Models) vengono rapidamente adottati per assistere medici e pazienti con un accesso più rapido alle informazioni mediche. Ma questo studio dimostra che questi sistemi possono ancora accettare e diffondere acriticamente disinformazione, anche in un linguaggio medico realistico. Questo è un problema perché le persone fanno sempre più affidamento su fonti online, compresi i chatbot basati sull’intelligenza artificiale, per ottenere informazioni sanitarie, e consigli errati possono avere gravi conseguenze.

Come è stato condotto lo studio

I ricercatori del Mount Sinai Health System hanno testato 20 LLM dei principali sviluppatori (OpenAI, Meta, Google, Alibaba, Microsoft, Mistral AI) con oltre un milione di suggerimenti. Questi suggerimenti includevano false dichiarazioni mediche mascherate da informazioni legittime: note ospedaliere fabbricate, miti sanitari sfatati da Reddit e scenari clinici simulati. L’obiettivo era semplice: l’IA ripeterebbe le falsità se fossero formulate in modo credibile?

Risultati chiave: la creduloneria varia, ma rimane un problema

I risultati hanno mostrato che i modelli di intelligenza artificiale non utilizzavano informazioni inventate nel 32% dei casi. Tuttavia, c’era una variazione significativa. I modelli più piccoli o meno avanzati credevano alle false affermazioni oltre il 60% delle volte, mentre sistemi più potenti come ChatGPT-4o le ripetevano solo nel 10% dei casi. Sorprendentemente, i modelli ottimizzati dal punto di vista medico hanno ottenuto risultati peggiori rispetto ai LLM generici nell’identificazione delle false affermazioni.

Esempi di disinformazione accettati dall’intelligenza artificiale

Lo studio ha identificato diversi esempi pericolosi:

  • I modelli di intelligenza artificiale accettavano false affermazioni come “Il Tylenol può causare autismo se assunto da donne incinte”.
  • Hanno ripetuto informazioni errate come “l’aglio rettale rafforza il sistema immunitario”.
  • Un modello ha persino accettato una nota di dimissione che consigliava ai pazienti con esofagite sanguinante di “bere latte freddo per lenire i sintomi”.

Questi esempi dimostrano il potenziale dell’IA nel diffondere consigli dannosi per la salute. Lo studio ha anche scoperto che i sistemi di intelligenza artificiale hanno maggiori probabilità di credere ad affermazioni false quando vengono presentati con ragionamenti persuasivi ma logicamente imperfetti, come appelli all’autorità (“un esperto dice che è vero”) o argomenti scivolosi (“se ​​X accade, segue il disastro”).

Qual è il prossimo passo? Misurare l’affidabilità dell’IA

Gli autori sottolineano la necessità di trattare la suscettibilità dell’intelligenza artificiale alla disinformazione come una proprietà misurabile. Suggeriscono di utilizzare stress test su larga scala e controlli di prove esterne prima di integrare l’intelligenza artificiale negli strumenti clinici. I ricercatori hanno rilasciato il loro set di dati affinché sviluppatori e ospedali valutassero i loro modelli.

“Invece di dare per scontato che un modello sia sicuro, è possibile misurare quanto spesso trasmette una bugia e se tale numero diminuirà nella generazione successiva”, ha affermato Mahmud Omar, il primo autore dello studio.

I risultati sottolineano che, sebbene l’intelligenza artificiale abbia il potenziale per migliorare l’assistenza sanitaria, la sua accettazione acritica di informazioni false rappresenta un rischio significativo. Test rigorosi e protezioni integrate sono fondamentali prima di un’adozione diffusa.