Sztuczna inteligencja w medycynie. Co, jeśli popełni błąd? Ekspertka ostrzega: nie wiadomo, kto ponosi odpowiedzialność

2023-04-25 06:16 aktualizacja: 2023-04-26, 12:58
Sztuczna inteligencja. Fot. Pixabay
Sztuczna inteligencja. Fot. Pixabay
Jednym z wyzwań korzystania ze sztucznej inteligencji (AI) w medycynie jest brak regulacji prawnych. Może to spowodować szereg problemów - powiedziała PAP prof. Justyna Król-Całkowska, Kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego w Warszawie, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta.

Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem - "kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane" - powiedziała PAP prof. Justyna Król-Całkowska.

"To jest podstawowy problem, ponieważ my czerpiemy z "regulacji unijnych", natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania" - zaznaczyła.

W medycynie, jak powiedziała ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce - zwłaszcza w diagnostyce obrazowej. "Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny" - wytłumaczyła profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.

Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? "Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję" - stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.

Prof. Justyna Król-Całkowska: bardzo dużo się mówi o AI, ale kompletnie nie wiadomo, co i jak ją reguluje

"Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna" - stwierdziła Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.

Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, "ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw" - zauważyła profesor.

Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, "ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej - kompletnie nie wiadomo, co i jak ją reguluje" - zaznaczyła ekspertka. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące. "Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI" - dodała.

"Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka - można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym" - podsumowała.

Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne. "Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i - niestety - myślę, że tak będzie w przypadku sztucznej inteligencji" - stwierdziła. Sposobem, aby nie doszło do tragedii jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI. "Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno" - zaznaczyła.

"My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem" - ostrzegła ekspertka. (PAP)

Autorka: Delfina Al Shehabi

dsk/