Potrzebne są dalsze badania nad tym, jak dobrze przygotowana sztuczna inteligencja będzie sobie radzić z najpoważniejszymi przypadkami, a także potencjalnymi zagrożeniami i problemami etycznymi wynikającymi z jej stosowania, twierdzą autorzy badania z dwóch izraelskich ośrodków naukowych.
Depresja jest zjawiskiem bardzo powszechnym i wiele osób nią dotkniętych zwraca się w pierwszej kolejności do lekarzy podstawowej opieki zdrowotnej. Zalecany schemat leczenia, oparty na doświadczeniu klinicznym i dowodach naukowych, obejmuje wielopłaszczyznowe podejście do pacjenta, dostosowane do stopnia nasilenia depresji.
Okazało się, że ChatGPT może zapewnić szybkie, obiektywne spostrzeżenia (oparte na zebranych danych) stanowiące ważne uzupełnienie tradycyjnych metod diagnostycznych, a także zapewniające poufność i anonimowość.
Badacze z Oranim Academic College w Tivon oraz Max Stern Academic College Of Emek Yezreel sprawdzili, jak model językowy ocenia zalecane podejście terapeutyczne w przypadku różnych przebiegów depresji oraz czy wpływ na tę ocenę miały dane związane z płcią lub klasą społeczną. Wyniki zestawiono z takim samym testem przeprowadzonym na 1249 francuskich lekarzach POZ.
Wszyscy ujęci w badaniu pacjenci mieli wyraźnie obniżony nastrój, problemy ze snem i zmniejszony apetyt oraz rozpoznaną łagodną do umiarkowanej depresję. Zarówno ChatGPT, jak i lekarze, znali ich płeć, status społeczny i ekonomiczny oraz stopień nasilenia choroby. Test powtórzono po 10 razy dla wersji ChatGPT 3.5 i 4.
Za każdym razem pytano sztuczną inteligencję: „Jak myślisz, co w tej sytuacji powinien zasugerować lekarz pierwszego kontaktu?”. Możliwymi odpowiedziami były: uważnie czekać; skierować na psychoterapię; przepisać leki (na depresję/lęki/problemy ze snem); skierować na psychoterapię i przepisać leki; żaden z powyższych.
Tylko nieco ponad 4 proc. lekarzy rodzinnych w przypadku łagodnej depresji zaleciło wyłącznie skierowanie na psychoterapię, podczas gdy ChatGPT-3.5 i ChatGPT-4 wybrały tę opcję odpowiednio w 95 proc. i 97,5 proc. przypadków. Większość lekarzy proponowała takim pacjentom jedynie leczenie farmakologiczne (48 proc.) lub psychoterapię w połączeniu z lekami na receptę (32,5 proc.).
W ciężkich przypadkach depresji lekarze z reguły zalecali psychoterapię w zestawieniu z lekami (44,5 proc.), a ChatGPT proponował to znacznie częściej (72 proc. wersja 3.5; 100 proc. wersja 4). Czterech na dziesięciu medyków zaleciło chorym wyłącznie leki, czego nie zrobiła żadna wersja ChatGPT.
Dodatkowo w przypadku farmakoterapii poproszono sztuczną inteligencję oraz lekarzy o dokładne określenie, jakie rodzaje leków by przepisali.
Okazało się, że ludzie zalecili łączenie leków przeciwdepresyjnych i przeciwlękowych oraz środków ułatwiających sen w 67,5 proc. przypadków, wyłączne stosowanie leków przeciwdepresyjnych w 18 proc., a wyłączne stosowanie leków przeciwlękowych lub nasennych w 14 proc.
ChatGPT częściej niż lekarze zalecał same leki przeciwdepresyjne: 74 proc. wersja 3.5 i 68 proc. wersja 4. Stosowanie kombinacji leków przeciwdepresyjnych, przeciwlękowych i tabletek nasennych sugerował zaś w 26 proc. (wersja 3.5) lub 32 proc. (wersja 4) przypadków.
Co ważne, ChatGPT nie wykazywał żadnych uprzedzeń związanych z płcią ani statusem społeczno-ekonomicznym w podejmowaniu decyzji o leczeniu.
Naukowcy zaznaczają jednak, że aby wyciągać szersze wnioski, należy powtórzyć badanie na innych grupach pacjentów (nie tylko francuskich) oraz uwzględnić nie tylko osoby przychodzące na pierwszą wizytę, ale i te, które są już w toku leczenia. Z uwagi na różne kwestie etyczne, np. te dotyczące zapewnienia prywatności i bezpieczeństwa danych, uważają też, że sztuczna inteligencja nigdy nie powinna zastępować ludzkiej oceny klinicznej w diagnozie lub leczeniu depresji.
Niemniej doszli do wniosku, że „ChatGPT ma potencjał usprawnienia procesu decyzyjnego w podstawowej opiece zdrowotnej”.
„Ma on większą precyzję w dostosowywaniu leczenia do wytycznych klinicznych, a do tego nie wykazuje żadnych zauważalnych uprzedzeń związanych z płcią i klasą społeczną” – podkreślają.
Ich zdaniem wdrożenie systemów opartych na sztucznej inteligencji mogłoby poprawić jakość i bezstronność usług w zakresie zdrowia psychicznego.(PAP)
Katarzyna Czechowicz
kno/