ChatGPT w medycynie: czym kusi AI, a czym ryzykują pacjenci i lekarze?

Dodane:

Przemysław Zieliński Przemysław Zieliński

ChatGPT w medycynie: czym kusi AI, a czym ryzykują pacjenci i lekarze?

Udostępnij:

Sztuczna inteligencja coraz śmielej wkracza do świata medycyny. Dla jednych to rewolucja, dla innych – źródło niepokoju. Jak pokazują najnowsze badania, AI może być zarówno wsparciem, jak i zagrożeniem dla pacjentów i lekarzy.​

Niejasne diagnozy, niepewne konsekwencje

Coraz więcej lekarzy korzysta z narzędzi opartych na generatywnej AI, takich jak ChatGPT, w codziennej praktyce. Badanie przeprowadzone przez brytyjskie pismo medyczne BMJ wykazało, że 20% lekarzy rodzinnych w Wielkiej Brytanii używa takich narzędzi do zadań administracyjnych i wspomagania diagnozowania. Choć AI może przyspieszyć pracę i pomóc w analizie danych, eksperci ostrzegają przed zbytnią zależnością od tych technologii.​ Dlaczego?

Na potrzeby opracowania pogłębionego studium dotyczącego wykorzystania przez lekarzy publicznych narzędzi genAI, Fierce Healthcare rozmawiało z prawie dwoma tuzinami lekarzy, studentów, ekspertów AI i organów regulacyjnych. Dodatkowo, do ponad setki medyków wysłano ankietę w tym temacie.

Opracowany następnie raport potwierdza, że niektórzy lekarze sięgają po narzędzia przeznaczone do zastosowań nieklinicznych w celu podejmowania decyzji klinicznych. Brak ustandaryzowanych wytycznych, opóźnienia w szkoleniu lekarzy i organy regulacyjne, które starają się nadążyć za szybko zmieniającą się technologią, sprawiają, że zabezpieczenia mające na celu ochronę pacjentów wydają się być o lata za obecnymi wskaźnikami wykorzystania.

– Mamy do czynienia z niepewnym otoczeniem regulacyjnym, marszem technologii, a jednocześnie absorpcją zarówno przez konsumentów, jak i pracowników służby zdrowia. Konsekwencje tego są bardzo niepewne – powiedział w rozmowie z Fierce Healthcare Peter Bonis, dyrektor ds. medycznych w Wolters Kluwer.

Ale i sami pacjenci korzystają z chatbotów, takich jak ChatGPT, w poszukiwaniu informacji zdrowotnych. Jednak badania pokazują, że odpowiedzi udzielane przez AI mogą być trudne do zrozumienia i czasem niedokładne . Redakcja New York Post opisuje właśnie jeden z takich przypadków. Pacjentka z Perth była zaniepokojona, gdy jej lekarz użył ChatGPT podczas konsultacji, co skłoniło ją do złożenia skargi.

AI w diagnozowaniu: potencjał i ograniczenia

Kolejne badania opublikowane na arXiv pod znamiennym tytułem „Wiedza kliniczna w LLM nie przekłada się na interakcje międzyludzkie” wskazują, że choć modele językowe, takie jak GPT-4o, osiągają wysoką dokładność w testach diagnostycznych, ich skuteczność w rzeczywistych interakcjach z pacjentami jest znacznie niższa. To sugeruje, że AI może być użyteczna jako narzędzie wspomagające, ale nie zastąpi doświadczenia i intuicji lekarza.​

Na potrzeby przytoczonego przed chwilą badania autorzy zrekrutowali około 1300 osób w Wielkiej Brytanii i przedstawili im scenariusze medyczne napisane przez grupę lekarzy. Uczestnicy mieli za zadanie zidentyfikować potencjalne warunki zdrowotne w scenariuszach i użyć chatbotów, a także własnych metod, aby określić możliwe kierunki działania (np. wizyta u lekarza lub udanie się do szpitala).

Czytaj także: AI jest lepsze niż słaby lekarz, lecz nigdy tak dobre jak wybitny – Aleksandra Staniszewska (MY OVU) o AI w medtechach

Uczestnicy korzystali z domyślnego modelu sztucznej inteligencji zasilającego ChatGPT, GPT-4o, a także Command R+ firmy Cohere i Llama 3 firmy Meta, które kiedyś stanowiły podstawę asystenta sztucznej inteligencji Meta. Według autorów, chatboty nie tylko sprawiły, że uczestnicy byli mniej skłonni do zidentyfikowania odpowiedniego stanu zdrowia, ale także sprawiły, że byli bardziej skłonni do niedoceniania ciężkości schorzeń, które zidentyfikowali. I właśnie ten aspekt budzi największe obawy medyków.

Przez ChatGPT do serca (lekarza)

OpenAI uruchomiło ChatGPT w listopadzie 2022 roku. Szacuje się, że w ciągu dwóch miesięcy z narzędzia korzystało ok. 100 milionów aktywnych użytkowników miesięcznie. W tamtym czasie był to wynik rekordowy w kategorii „Aplikacje”. Jak mówią lekarze, korzystanie z ChatGPT jest bardzo przyjazne oraz intuicyjne. A odpowiedzi, których udziela aplikacja, są „uwodzicielskie” oraz „przekonujące”.

Kolejną zaletą narzędzia jest jego dostępność. Bazy wiedzy medycznej, które są wiarygodne i kompleksowe, w większości przypadków są płatne. A ChatGPT jest za darmo – przynajmniej w tych bardziej okrojonych, podstawowych wersjach.

Ale przecież taki ChatGPT korzysta z podstawowych informacji – nawet jeśli ma zdiagnozować wysoce specjalistyczny przypadek. LLM szkolone są na publicznie dostępnych informacjach, a nie na płatnych bazach medycznych. Co więcej – ChatGPT pomija bazy ukryte za paywallem (np. medyczne czasopisma naukowe), za to z chęcią zagląda do zakamarków Reddit. Dane treningowe nie są również aktualizowane w czasie rzeczywistym; najnowsza płatna wersja GPT została przeszkolona do grudnia 2023 r., zgodnie ze stroną internetową OpenAI. Wersja darmowa zakończyła się w październiku 2023 roku, choć ChatGPT może błędnie twierdzić inaczej.

Rokowania?

Wprowadzenie AI do medycyny wiąże się z szeregiem wyzwań. Wynikają one przede wszystkim z takich zaniechań jak brak standaryzacji w zakresie, w jakim lekarze mogą korzystać z AI, niedostateczne szkolenie lekarzy i opóźnienia w regulacjach. To wszystko może – a zapewne i będzie – prowadzić do błędów i nadużyć . Ponadto, niektóre modele AI mogą utrwalać nieprawdziwe przekonania medyczne. To z kolei prowadzi do pogłębiania nierówności w opiece zdrowotnej .​

Z drugiej strony, nikt rozsądny nie odmówi AI potencjału do tego, by wspierać medycynę. Dlatego tak ważne jest, aby zarówno lekarze, jak i pacjenci powinni mieli świadomość możliwości i ograniczeń sztucznej inteligencji. Współpraca między twórcami AI, przedstawicielami środowisk medycznych oraz samymi pacjentami jest kluczowa dla bezpiecznego i efektywnego wykorzystania sztucznej inteligencji w opiece zdrowotnej.

Czytaj także: