Modelos de IA suscetíveis à desinformação médica, conclui estudo

13

Os principais sistemas de inteligência artificial (IA), incluindo o ChatGPT, são vulneráveis à repetição de informações falsas sobre saúde quando apresentadas de forma convincente, de acordo com uma nova pesquisa publicada no The Lancet Digital Health. Isto levanta preocupações críticas à medida que a IA se torna cada vez mais integrada nos cuidados de saúde, onde a precisão pode ser uma questão de vida ou morte.

A ascensão da IA na saúde… e os riscos

LLMs (Large Language Models) estão sendo rapidamente adotados para ajudar médicos e pacientes com acesso mais rápido a insights médicos. Mas este estudo demonstra que estes sistemas ainda podem aceitar e disseminar desinformação de forma acrítica, mesmo em linguagem médica realista. Isto é um problema porque as pessoas dependem cada vez mais de fontes online – incluindo chatbots de IA – para obter informações sobre saúde, e conselhos incorretos podem ter consequências graves.

Como o estudo foi conduzido

Pesquisadores do Mount Sinai Health System testaram 20 LLMs de grandes desenvolvedores (OpenAI, Meta, Google, Alibaba, Microsoft, Mistral AI) com mais de um milhão de solicitações. Essas solicitações incluíam declarações médicas falsas disfarçadas de informações legítimas: notas hospitalares fabricadas, mitos de saúde desmascarados do Reddit e cenários clínicos simulados. O objetivo era simples: a IA repetiria falsidades se elas fossem formuladas de forma confiável?

Principais conclusões: A credulidade varia, mas continua sendo um problema

Os resultados mostraram que os modelos de IA falharam em informações inventadas em 32% do tempo total. No entanto, houve variação significativa. Modelos menores ou menos avançados acreditaram em alegações falsas em 60% das vezes, enquanto sistemas mais poderosos como o ChatGPT-4o apenas as repetiram em 10% dos casos. Surpreendentemente, modelos medicamente ajustados tiveram desempenho pior do que LLMs de uso geral na identificação de alegações falsas.

Exemplos de desinformação aceita pela IA

O estudo identificou vários exemplos perigosos:

  • Os modelos de IA aceitaram alegações falsas como “Tylenol pode causar autismo se tomado por mulheres grávidas”.
  • Eles repetiram informações erradas como “o alho retal estimula o sistema imunológico”.
  • Um modelo até aceitou uma nota de alta aconselhando os pacientes com esofagite hemorrágica a “beber leite frio para aliviar os sintomas”.

Estes exemplos demonstram o potencial da IA ​​para difundir conselhos de saúde prejudiciais. O estudo também descobriu que os sistemas de IA são mais propensos a acreditar em afirmações falsas quando lhes são apresentados argumentos persuasivos mas logicamente falhos, tais como apelos à autoridade (“um especialista diz que isto é verdade”) ou argumentos escorregadios (“se ​​X acontecer, segue-se o desastre”).

O que vem a seguir? Medindo a confiabilidade da IA

Os autores enfatizam a necessidade de tratar a suscetibilidade da IA à desinformação como uma propriedade mensurável. Eles sugerem o uso de testes de estresse em grande escala e verificações de evidências externas antes de integrar a IA em ferramentas clínicas. Os pesquisadores divulgaram seu conjunto de dados para desenvolvedores e hospitais avaliarem seus modelos.

“Em vez de presumir que um modelo é seguro, podemos medir quantas vezes ele transmite uma mentira e se esse número cai na próxima geração”, disse Mahmud Omar, o primeiro autor do estudo.

As conclusões sublinham que, embora a IA tenha potencial para melhorar os cuidados de saúde, a sua aceitação acrítica de informações falsas representa um risco significativo. Testes rigorosos e proteções integradas são cruciais antes da adoção generalizada.