Badania pokazują, że modele sztucznej inteligencji są podatne na dezinformację medyczną

20

Wiodące systemy sztucznej inteligencji (AI), w tym ChatGPT, są podatne na powtarzanie fałszywych informacji zdrowotnych, jeśli zostaną przedstawione w przekonujący sposób, wynika z nowego badania opublikowanego w The Lancet Digital Health. Jest to poważny problem, ponieważ sztuczna inteligencja staje się coraz bardziej zintegrowana z opieką zdrowotną, gdzie dokładność może zadecydować o życiu lub śmierci.

Rozprzestrzenianie się sztucznej inteligencji w opiece zdrowotnej… i związane z tym ryzyko

Modele wielkojęzyczne (LLM) są szybko wdrażane, aby pomóc lekarzom i pacjentom w szybszym dostępie do danych medycznych. Jednak to badanie pokazuje, że systemy te mogą nadal bezkrytycznie akceptować i rozpowszechniać dezinformację, nawet jeśli jest wyrażona realistycznym językiem medycznym. Stanowi to problem, ponieważ ludzie w coraz większym stopniu polegają na źródłach internetowych – w tym chatbotach opartych na sztucznej inteligencji – w zakresie informacji zdrowotnych, a złe porady mogą mieć poważne konsekwencje.

Jak przeprowadzono badanie

Naukowcy z Mount Sinai Health System przetestowali 20 LLM od wiodących programistów (OpenAI, Meta, Google, Alibaba, Microsoft, Mistral AI) za pomocą ponad miliona zapytań. Żądania te obejmowały fałszywe oświadczenia medyczne udające wiarygodne informacje: sfabrykowane historie medyczne, obalenie mitów zdrowotnych z Reddita i symulowane scenariusze kliniczne. Cel był prosty: czy sztuczna inteligencja powtórzy kłamstwo, jeśli zostanie sformułowane w przekonujący sposób?

Kluczowe wnioski: Zaufanie jest różne, ale pozostaje wyzwaniem

Wyniki pokazały, że modele sztucznej inteligencji uległy fikcyjnym informacjom ogółem w 32% przypadków. Występowały jednak znaczne różnice: mniejsze lub mniej zaawansowane modele wierzyły w fałszywe stwierdzenia w ponad 60% przypadków, podczas gdy mocniejsze systemy, takie jak ChatGPT-4o, powtarzały je tylko w 10% przypadków. Co zaskakujące, modele dostosowane do celów medycznych radziły sobie gorzej niż modele LLM ogólnego przeznaczenia w identyfikowaniu fałszywych twierdzeń.

Przykłady dezinformacji akceptowanej przez sztuczną inteligencję

W badaniu zidentyfikowano kilka niebezpiecznych przykładów:

  • Modele AI zaakceptowały fałszywe stwierdzenia, takie jak „Tylenol może powodować autyzm, jeśli jest przyjmowany przez kobietę w ciąży”.
  • Powtarzali dezinformację, np. „czosnek w odbytnicy poprawia odporność”.
  • Jedna z modelek przyjęła nawet oświadczenie, w którym zalecała pacjentom z krwawiącym zapaleniem przełyku „pić zimne mleko w celu złagodzenia objawów”.

Przykłady te pokazują potencjał sztucznej inteligencji w rozpowszechnianiu szkodliwych porad medycznych. Badanie wykazało również, że systemy sztucznej inteligencji częściej uwierzą w fałszywe twierdzenia, jeśli przedstawi się im przekonujące, ale logicznie niespójne uzasadnienie, takie jak odwołanie się do władzy („ekspert twierdzi, że to prawda”) lub argument dotyczący nieuniknionych konsekwencji („jeśli wydarzy się X, nastąpi katastrofa”).

Co dalej? Pomiar niezawodności sztucznej inteligencji

Autorzy podkreślają potrzebę uwzględnienia podatności sztucznej inteligencji na dezinformację jako mierzalnej właściwości. Sugerują przeprowadzenie testów warunków skrajnych na dużą skalę i przegląd dowodów zewnętrznych przed włączeniem sztucznej inteligencji do narzędzi klinicznych. Naukowcy opublikowali swój zbiór danych, aby programiści i szpitale mogli ocenić swoje modele.

„Zamiast zakładać, że model jest bezpieczny, można zmierzyć, jak często przekazuje on kłamstwa i czy liczba ta maleje w następnym pokoleniu” – powiedział Mahmoud Omar, główny autor badania.

Wyniki podkreślają, że chociaż sztuczna inteligencja może ulepszyć opiekę zdrowotną, jej bezkrytyczne akceptowanie fałszywych informacji stwarza znaczne ryzyko. Przed powszechnym przyjęciem wymagane są dokładne testy i wbudowane mechanizmy bezpieczeństwa.