Think Tank SGH dla ochrony zdrowia opublikował raport „Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”. Przestawiono w nim możliwości, jakie niesie za sobą coraz szersze otwarcie sektora zdrowia na narzędzia AI oraz potencjalne zagrożenia z tym związane. Autorzy wskazują, że pacjenci mają mieszane uczucia w stosunku do narzędzi AI. Konieczne są zmiany prawa, tak aby nadążało za wdrażanymi do systemu opieki medycznej rozwiązaniami sztucznej inteligencji.
Na całym świecie rośnie znaczenie narzędzi AI w systemach ochrony zdrowia. Główne cele zastosowania AI – to rozwój nowych produktów i usług, poprawa efektów zdrowotnych, wsparcie kadry medycznej, optymalizacja procesów. Sztuczna inteligencja stwarza nadzieję na poprawę jakości świadczeń, w tym m.in. polepszenie możliwości diagnostycznych czy zwiększenie skuteczności interwencji chirurgicznych, a także na obniżenie kosztów utrzymania sprawnego systemu opieki medycznej. Prawdziwy rozkwit rozwiązań AI – to wciąż przyszłość, a jej nadejście zależy od tworzonych już dziś ram bezpieczeństwa ich stosowania oraz nastawienia społeczeństwa.
Aktualnie najczęściej narzędzia AI są wykorzystywane do komunikacji z pacjentami np. w formie chatbotów. Natomiast patrząc pod kątem wielkości rynku, największy udział ma wykorzystanie AI w diagnostyce.. Najbardziej zaawansowane rozwiązania AI w ochronie zdrowia funkcjonują w Danii, gdzie np. w przesiewowej mammografii wyniki w pierwszej kolejności ocenia algorytm AI. W Polsce rolą AI jest przede wszystkim usprawnianie diagnostyki obrazowej. Rzadziej służy do wsparcia podejmowania decyzji klinicznych czy obsługi administracyjnej pacjentów. Aby sprostać wyzwaniom i zapobiec zagrożeniom pojawiającym się wraz popularyzacją stosowania rozwiązań AI w systemie ochrony zdrowia, konieczne jest opracowanie regulacji prawnych w oparciu o bezpieczeństwo cyfrowe, oraz odpowiadanie na potrzeby społeczne. Mogą też pojawić się trudności natury etycznej, ponieważ algorytmy mogą np. dyskryminować niektórych pacjentów, gdy są niewłaściwie nadzorowane.
Wyzwaniem i jednocześnie barierą dla rozwoju AI w ochronie zdrowia jest stosunek pacjentów wobec nowych rozwiązań. Według danych z raportu, 67 proc. polskich pacjentów uważa, że AI ulepszy proces leczenia, jednakże tylko 37 proc. pozytywnie byłoby nastawione do jej zastosowania w diagnostyce, a 40 proc. poddałoby się operacji wspieranej przez AI. To obrazuje, jak jeszcze dużo jest do zrobienia w kwestii edukacji społeczeństwa. Oprócz braku zrozumienia zasady działania AI, pacjenci obawiają się również traktowania przedmiotowo czy braku empatii w interakcji w placówkach opieki medycznej, w momencie, gdy zaczną one korzystać w pełni z narzędzi AI. Część osób boi się także o bezpieczeństwo poufnych danych. Autorzy raportu wskazują – “Ta sama innowacja technologiczna (np. określone zastosowanie AI w medycynie) może być postrzegana zarówno pozytywnie, jak i negatywnie, co określa się jako paradoks technologii”. Przy czym jest to zjawisko powszechne, występujące w każdej dziedzinie życia i z czasem słabnie. Dlatego podczas projektowania narzędzi AI “warto zadbać nie tylko o stronę medyczną (skuteczność w leczeniu), ale również sposób, w jaki pacjenci będą takie rozwiązanie postrzegali na podstawie jego opisu, wyglądu czy sposobu interakcji z pacjentem”.
Kwestia etycznego stosowania algorytmów AI została poruszona w najnowszej wersji Kodeksu Etyki Lekarskiej, która zacznie obowiązywać w przyszłym roku. Autorzy raportu podkreślają również m.in. na konieczność przyjęcia na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI, wdrożenie przepisów dotyczących ochrony danych w związku z wtórnym wykorzystaniem danych dotyczących zdrowia na potrzeby rozwoju systemów AI czy szkolenia personelu medycznego w zakresie bezpiecznego i efektywnego korzystania z technologii AI w procesie diagnostyczno-terapeutycznym.
Autorzy raportu Think Tank SGH dla ochrony zdrowia: prof. dr hab. Bogumił Kamiński, dr hab. Justyna Król-Całkowska, prof. UŁa, dr hab. Monika Raulinajtys-Grzybek, prof. SGH, dr hab. Barbara Więckowska, prof. SGH, dr Wojciech Trzebiński, dr Katarzyna Byszek, mgr Dominika Jaśkowiak, mgr Daniel Kaszyński.