ChatGPT rozszerza się na opiekę zdrowotną: nowa dedykowana karta budzi obawy dotyczące prywatności i dokładności

22

OpenAI wprowadza ChatGPT Health, nową funkcję zaprojektowaną w celu scentralizowania zapytań o zdrowie w ramach popularnego chatbota AI. Posunięcie to odzwierciedla rosnące zapotrzebowanie na informacje zdrowotne ze strony sztucznej inteligencji, przy czym OpenAI co tydzień zgłasza „setki milionów” użytkowników poszukujących porad zdrowotnych. Karta Zdrowie, obecnie w wersji beta, umożliwi użytkownikom integrację danych z aplikacji takich jak Apple Health i MyFitnessPal, tworząc bardziej kompleksowy, ale potencjalnie ryzykowny cyfrowy profil zdrowia.

Dylemat prywatności

Ekspansja na opiekę zdrowotną natychmiast budzi obawy dotyczące bezpieczeństwa danych i prywatności. W przeciwieństwie do regulowanych dostawców usług opieki zdrowotnej, OpenAI nie jest związana ustawą HIPAA ani żadnym kompleksowym prawem dotyczącym prywatności w Stanach Zjednoczonych. Oznacza to, że dane osobowe dotyczące zdrowia zebrane przez ChatGPT Health będą podlegać zasadom OpenAI, które mogą nie zapewniać takiej samej ochrony jak tradycyjni dostawcy usług opieki zdrowotnej. Według Andrew Crawforda z Centrum Demokracji i Technologii może to narazić wrażliwe informacje zdrowotne na ataki hakerskie i niewłaściwe wykorzystanie.

OpenAI twierdzi, że nowa karta będzie zawierać oddzielną historię czatów, szyfrowanie i uwierzytelnianie wieloskładnikowe. Firma twierdzi również, że rozmowy na temat zdrowia nie będą wykorzystywane do szkolenia modelu. Poważnym ryzykiem pozostaje jednak brak rygorystycznych norm prawnych.

Dokładność i ryzyko dezinformacji

Oprócz prywatności coraz większym problemem jest wiarygodność zaleceń medycznych generowanych przez sztuczną inteligencję. Zdarzały się przypadki, gdy użytkownicy otrzymywali niebezpieczne zalecenia, takie jak zastąpienie soli bromkiem sodu, co kończyło się hospitalizacją. OpenAI uznaje to niebezpieczeństwo, stwierdzając, że ChatGPT Health nie jest przeznaczony do diagnozowania ani leczenia. Pomimo ulepszeń modelu GPT-5 (który rzadziej powoduje halucynacje), istnieje ryzyko uzyskania niedokładnych lub szkodliwych informacji.

Problemy ze zdrowiem psychicznym

Aby ulepszyć reakcje na poufne rozmowy, firma zatrudniła ponad 170 ekspertów w dziedzinie zdrowia psychicznego. ChatGPT został przeszkolony w zakresie kierowania użytkowników poszukujących pomocy w zakresie zdrowia psychicznego do zasobów służb kryzysowych. Chociaż OpenAI twierdzi, że sztuczna inteligencja może teraz skuteczniej deeskalować niepokojące rozmowy, skuteczność tych środków ostrożności jest nadal niepewna.

Dostęp i perspektywy na przyszłość

ChatGPT Health jest obecnie dostępny poprzez listę oczekujących. OpenAI opisuje zakładkę jako narzędzie zawierające informacje o kondycji, odżywianiu i ogólnym stanie zdrowia, wyraźnie stwierdzając, że nie zastąpi ona profesjonalnej opieki zdrowotnej. Ekspansja w tym obszarze niesie jednak ze sobą nowe ryzyka, które wymagają dokładnego rozważenia.

Brak kompleksowych przepisów dotyczących prywatności i nieodłączne ryzyko dezinformacji generowanej przez sztuczną inteligencję oznacza, że ​​użytkownicy powinni postępować ostrożnie. ChatGPT Health może zapewniać wygodę, ale nie zastępuje wiedzy specjalistycznej i zabezpieczeń prawnych tradycyjnych systemów opieki zdrowotnej.