Pierwsza niezależna ocena bezpieczeństwa ChatGPT Health: narzędzie może wprowadzać w błąd

Naukowcy z Icahn School of Medicine at Mount Sinai w Nowym Jorku przeprowadzili pierwszą ocenę ChatGPT Health. Jak donoszą, w ponad połowie przypadków wymagających udzielenia pomocy medycznej narzędzie to uspokaja pacjentów. W konsekwencji bagatelizuje więc realne zagrożenie.
Czym jest ChatGPT Health?
To uruchomione w styczniu 2026 r. narzędzie cyfrowe, które – choć jest rozwiązaniem nowym – już zyskuje sporą popularność. Każdego dnia korzysta z niego ok. 40 mln użytkowników. W jakim celu? Aby sprawdzić, czy dany problem zdrowotny wymaga pilnej konsultacji lekarskiej. Jak się jednak okazuje, ChatGPT Health często nie spełnia swojej funkcji i może wprowadzić pacjenta w błąd.
Nie wzywam pogotowia, poczekam…
Taki wniosek mogą wysnuć nie tylko pacjenci, którzy faktycznie nie potrzebują interwencji medycznej, lecz także ci, którzy powinni z niej skorzystać, i to nawet natychmiast. Badanie opublikowane w „Nature Medicine” wykazało, że nawet w momencie rozpoznania przez ChatGPT Health objawów zagrażających życiu nie informuje on pacjenta o konieczności wezwania pogotowia lub udania się do szpitala. Podczas badania naukowcy bazowali na 60 scenariuszach medycznych. Najpierw zostały one ocenione przez lekarzy, a następnie porównane z odpowiedziami, jakie udzielił ChatGPT Health. Narzędzie miało problemy z prawidłowym rozpoznawaniem przypadków, które zdaniem lekarzy wymagały udzielenia natychmiastowej pomocy pacjentowi.
Nie można ślepo ufać AI
Konkluzja nasuwa się sama: chatboty nie mogą zastąpić profesjonalnej oceny medycznej. Najlepiej więc, by służyły pacjentom jako źródło informacji, a nie decyzji o tym, czy zadzwonić na pogotowie czy skonsultować się z lekarzem.
Źródła: pulsmedycyny.pl, medonet.pl
Wykup subskrypcję serwisu ratownicy24.pl i zyskaj dostęp do materiałów, dzięki którym usprawnisz swoją pracę. Kliknij TUTAJ i dowiedz się więcej!




