Il boom degli esami del sangue basati sull’intelligenza artificiale: approfondimenti sanitari personalizzati o congetture digitali?

10

Per molti pazienti, il periodo che intercorre tra il prelievo del sangue e la ricezione dei risultati è uno stressante “limbo informativo”. Quando finalmente arrivano i referti, spesso si tratta di un fitto groviglio di gergo medico difficile da interpretare senza l’aiuto di un professionista. Inoltre, i medici, spesso a corto di tempo, potrebbero non fornire sempre il follow-up dettagliato e colloquiale che i pazienti desiderano.

Questo divario ha dato vita a un nuovo mercato: servizi di concierge sanitario basati sull’intelligenza artificiale. Le aziende stanno ora sfruttando i Large Language Models (LLM) come ChatGPT, Claude e Gemini per promettere qualcosa che i medici spesso faticano a fornire: interpretazioni istantanee, personalizzate e di facile comprensione dei biomarcatori.

L’ascesa del concierge sanitario AI

Marchi di benessere come Whoop e Levels sono in prima linea, trasformando i dati grezzi di laboratorio in piani di vita attuabili. Questi servizi operano tipicamente secondo un modello di abbonamento, che va da poche centinaia a oltre mille dollari all’anno.

La proposta di valore è chiara:
Accessibilità: traduzione di termini medici complessi in inglese semplice.
Personalizzazione: suggerimento di cambiamenti nella dieta, aggiustamenti del sonno o modifiche dell’esercizio fisico in base ai tuoi livelli specifici.
Monitoraggio proattivo: allontanamento dall’attività fisica “una volta all’anno” verso l’ottimizzazione continua della salute.

Tuttavia, anche se l’appello è alto, gli esperti medici invitano alla cautela. Il dottor John Whyte dell’American Medical Association (AMA) osserva che attualmente non esiste alcuna ricerca rigorosa che dimostri che l’intelligenza artificiale possa interpretare accuratamente i risultati del sangue o fornire raccomandazioni efficaci sullo stile di vita.

Il divario di accuratezza: allucinazioni e dati mancanti

La sfida fondamentale risiede nella tecnologia stessa. La maggior parte dei principali sviluppatori di intelligenza artificiale, tra cui Google e OpenAI, affermano che i loro modelli non sono specificatamente confrontati o convalidati per l’interpretazione medica.

I rischi sono documentati e significativi:
Errori e omissioni: durante i primi test, la startup BloodGPT ha scoperto che i chatbot generici come ChatGPT e Claude spesso mancavano completamente i biomarcatori o confondevano un valore con un altro.
Allucinazioni: l’intelligenza artificiale può “allucinare”, creando raccomandazioni mediche sicure ma del tutto false.
Mancanza di contesto: mentre un’azienda come Whoop tenta di risolvere questo problema integrando dati fisiologici (come il sonno e la frequenza cardiaca) nell’analisi, i critici sostengono che non ci siano ancora prove peer-reviewed che queste intuizioni “personalizzate” siano scientificamente valide.

La difesa “Human-in-the-Loop”.

Per combattere questi rischi, diverse aziende stanno implementando una strategia “human-in-the-loop”.

“Lo stiamo utilizzando nuovamente come strumento di supporto al medico, che è, secondo me, il modo giusto di utilizzare questi strumenti oggi.” — Josh Clemente, CEO di Levels

Levels e Whoop impiegano entrambi medici per esaminare i rapporti prima che raggiungano il consumatore. Questo approccio ibrido mira a combinare la velocità dell’intelligenza artificiale con la sicurezza della supervisione umana. Ciononostante, esperti come il dottor Girish N. Nadkarni del Monte Sinai mettono in guardia contro i pregiudizi legati all’automazione, ovvero la tendenza dei medici umani a “timbrare” i risultati di un’intelligenza artificiale invece di metterli in discussione in modo critico.

Il percorso da seguire: convalida contro pubblicità

L’industria è attualmente in una fase di “selvaggio west”. Aziende come BloodGPT si stanno muovendo verso una validazione più rigorosa, pianificando massicci progetti di ricerca che coinvolgono 100.000 cartelle cliniche per confrontare la loro accuratezza con i risultati medici del mondo reale.

Fino a quando non esisteranno dati sottoposti a revisione paritaria, i professionisti medici suggeriscono un approccio più conservativo all’utilizzo dell’intelligenza artificiale nel percorso sanitario.

Come utilizzare l’intelligenza artificiale in modo sicuro oggi:
1. Usalo per l’alfabetizzazione, non per la diagnosi: Chiedi all’intelligenza artificiale di “spiegare cosa significa questo termine medico” anziché “dirmi cosa c’è che non va in me”.
2. Preparati per il tuo medico: utilizza l’intelligenza artificiale per generare un elenco di domande intelligenti da porre al tuo medico durante il tuo prossimo appuntamento.
3. Attenzione al mito del “proiettile d’argento”: Evita il clamore dei social media che suggerisce che un singolo esame del sangue può risolvere problemi complessi come l’affaticamento cronico o l’insonnia.


Conclusione
Sebbene l’intelligenza artificiale offra una soluzione promettente al divario comunicativo nel settore sanitario, attualmente non dispone della convalida scientifica necessaria per essere uno strumento diagnostico autonomo. Per ora è meglio considerarlo un dizionario sofisticato piuttosto che un medico digitale.