Jednym z wyzwań korzystania ze sztucznej inteligencji w medycynie jest brak regulacji prawnych. Może to spowodować szereg problemów – mówi prof. Justyna Król-Całkowska, kierownik Katedry Prawa Międzynarodowego i Europejskiego Uczelni Łazarskiego.
Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem – “kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane” – powiedziała PAP prof. Justyna Król-Całkowska. “To jest podstawowy problem, ponieważ my czerpiemy z “regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania” – zaznaczyła.
W medycynie, jak powiedziała ekspertka, ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowe -. “Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny”. AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.
Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? “Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję” – stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej. “Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna” – stwierdziła prof. Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.
Polska nie jest jedynym krajem, który nie ma indywidualnych regulacji prawnych w zakresie sztucznej inteligencji. Kraje członkowskie Unii Europejskiej mierzą się z tym samym problemem. Proponowane są rozwiązania, szczególnie w rozporządzeniu parlamentu europejskiego, “ale co z tego, że są one proponowane i niektóre są naprawdę całkiem dobre, skoro nie są implementowane do porządków prawnych poszczególnych państw” – zauważyła profesor. Zaufanie do sztucznej inteligencji jest jeszcze ograniczone, “ponieważ z jednej strony bardzo dużo się mówi o AI, a z drugiej – kompletnie nie wiadomo, co i jak ją reguluje”. Dodatkowo ludzie obawiają się braku udziału człowieka w leczeniu, gdyż to jego uważają za mniej omylnego. Zdaniem Król-Całkowskiej jest to złudne przekonanie. Przeprowadzone badania pokazały, że przeciętny, młody radiolog myli się trzykrotnie częściej, niż algorytm sztucznej inteligencji, który uczył się tylko przez dwa miesiące – “Regulacje prawne dadzą poczucie stabilności ludziom, którzy będą korzystać z AI. Po stronie pacjentów ten lęk nie powinien istnieć, ale lekarze czy personel medyczny powinien tę obawę mieć, ponieważ jeśli sztuczna inteligencja popełni błąd, a jednocześnie nie dojdzie do ostatecznego zweryfikowania przez człowieka – można mówić o niedołożeniu należytej staranności, a to jest podstawa odpowiedzialności w prawie medycznym”.
Kiedy więc można spodziewać się zmian w prawie? Zdaniem prof. Justyny Król-Całkowskiej dopiero wtedy, kiedy błędy staną się zauważalne i problematyczne – “Ludzie najczęściej reagują, gdy coś się wydarzy. Wprowadzają regulacje wtedy, kiedy już z czymś jest problem i – niestety – myślę, że tak będzie w przypadku sztucznej inteligencji”. Sposobem, aby nie doszło do tragedii jest zaproponowanie jednoznacznych, krajowych regulacji, które będą dotyczyły odpowiedzialności za działania AI – “Bez tego może dojść do sytuacji, w której zareagujemy zbyt późno”. “My już wiemy, co może się może stać i odwlekanie w czasie wprowadzenia regulacji jest ogromnym błędem” – ostrzega prof. Król-Całkowska.