Los principales sistemas de inteligencia artificial (IA), incluido ChatGPT, son vulnerables a repetir información de salud falsa cuando se presenta de manera convincente, según una nueva investigación publicada en The Lancet Digital Health. Esto plantea preocupaciones críticas a medida que la IA se integra cada vez más en la atención sanitaria, donde la precisión puede ser una cuestión de vida o muerte.
El auge de la IA en la atención sanitaria… y los riesgos
Los LLM (modelos de lenguaje grande) se están adoptando rápidamente para ayudar a los médicos y pacientes con un acceso más rápido a conocimientos médicos. Pero este estudio demuestra que estos sistemas todavía pueden aceptar y difundir información errónea sin crítica, incluso en un lenguaje médico realista. Esto es un problema porque las personas dependen cada vez más de fuentes en línea (incluidos los chatbots de inteligencia artificial) para obtener información de salud, y los consejos incorrectos pueden tener graves consecuencias.
Cómo se realizó el estudio
Los investigadores del Mount Sinai Health System probaron 20 LLM de los principales desarrolladores (OpenAI, Meta, Google, Alibaba, Microsoft, Mistral AI) con más de un millón de solicitudes. Estas indicaciones incluían declaraciones médicas falsas disfrazadas de información legítima: notas hospitalarias inventadas, mitos de salud desacreditados de Reddit y escenarios clínicos simulados. El objetivo era simple: ¿la IA repetiría falsedades si estuvieran redactadas de manera creíble?
Hallazgos clave: La credulidad varía, pero sigue siendo un problema
Los resultados mostraron que los modelos de IA fallaron en información inventada el 32% del tiempo en general. Sin embargo, hubo una variación significativa. Los modelos más pequeños o menos avanzados creyeron afirmaciones falsas más del 60% de las veces, mientras que los sistemas más potentes como ChatGPT-4o sólo las repitieron en el 10% de los casos. Sorprendentemente, los modelos médicamente ajustados tuvieron peores resultados que los LLM de propósito general a la hora de identificar afirmaciones falsas.
Ejemplos de desinformación aceptada por la IA
El estudio identificó varios ejemplos peligrosos:
- Los modelos de IA aceptaron afirmaciones falsas como “Tylenol puede causar autismo si lo toman mujeres embarazadas”.
- Repitieron información errónea como “el ajo rectal fortalece el sistema inmunológico”.
- Una modelo incluso aceptó una nota de alta que aconsejaba a los pacientes con esofagitis sangrante “beber leche fría para aliviar los síntomas”.
Estos ejemplos demuestran el potencial de la IA para difundir consejos de salud perjudiciales. El estudio también encontró que los sistemas de IA tienen más probabilidades de creer en afirmaciones falsas cuando se les presentan razonamientos persuasivos pero lógicamente defectuosos, como apelaciones a la autoridad (“un experto dice que esto es cierto”) o argumentos resbaladizos (“si sucede X, sigue el desastre”).
¿Qué sigue? Medición de la confiabilidad de la IA
Los autores enfatizan la necesidad de tratar la susceptibilidad de la IA a la desinformación como una propiedad mensurable. Sugieren utilizar pruebas de estrés a gran escala y verificaciones de evidencia externa antes de integrar la IA en las herramientas clínicas. Los investigadores han publicado su conjunto de datos para que desarrolladores y hospitales evalúen sus modelos.
“En lugar de asumir que un modelo es seguro, se puede medir con qué frecuencia transmite una mentira y si ese número disminuye en la próxima generación”, dijo Mahmud Omar, el primer autor del estudio.
Los hallazgos subrayan que, si bien la IA tiene el potencial de mejorar la atención médica, su aceptación acrítica de información falsa plantea un riesgo significativo. Las pruebas rigurosas y las salvaguardias integradas son cruciales antes de una adopción generalizada.
