Sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów. Jednak prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami – uważają autorzy raportu “Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce”.
Raport “Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” został przygotowany przez naukowców Szkoły Głównej Handlowej w Warszawie w ramach thinktanku “SGH dla ochrony zdrowia”.
W ocenie autorów raportu sztuczna inteligencja (AI) staje się nierozłącznym elementem otoczenia branży zdrowia i opieki zdrowotnej. Dzięki swojej specyfice ma ona potencjał, by zrewolucjonizować podejście do profilaktyki, diagnostyki, leczenia i monitorowania pacjentów, jednocześnie redukując koszty i podnosząc jakość tych działań. Jednocześnie niesie to ze sobą wyzwania, takie jak przede wszystkim stworzenie odpowiednich regulacji prawnych i zadbanie o zrównoważony rozwój technologiczny, bezpieczny cyfrowo i wspierający potrzeby społeczne.
Autorzy raportu podają, że globalny rynek AI w opiece zdrowotnej w 2023 r. był wyceniany na 22,5 miliarda dolarów. W bieżącym roku ma osiągnąć wartość 32,3 miliarda dolarów i wzrastać z roczną stopą wzrostu na poziomie 36,4 proc. do roku 2030, osiągając wartość 208 miliardów. Jak zaznaczono, przykładowe zastosowania AI w działalności świadczeniodawcy ochrony zdrowia można przyporządkować realizowanym priorytetom biznesowym, takim jak:
- rozwój nowych produktów i usług (np. chatbot do obsługi pacjenta, translator wiedzy o zdrowiu, generowanie treści marketingowych),
- poprawa efektów zdrowotnych (np. triaż, podsumowanie historii medycznej pacjenta, tworzenie programów zdrowotnych, synteza społecznych determinantów zdrowia, screening pacjentów do badań),
- wsparcie kadry medycznej (np. bank wiedzy medycznej, tworzenie symulacji, generowanie poleceń)
- optymalizacja procesów (np. generowanie umów, generowanie treści szkoleniowych, ewaluacja i planowanie, zarządzanie zasobami i generowanie raportów).
“Możliwość komunikacji poprzez wykorzystanie voicebotów i chatbotów jest jednym z coraz częściej wykorzystywanych rozwiązań AI w obszarze nowych produktów i usług oferowanych pacjentom. Boty obsługujące proste zapytania i udzielające pacjentom wsparcia na etapie gromadzenia informacji pozwalają na bardziej celowaną interakcję z instytucją niż w przypadku wyłącznie czytania informacji dostępnych na stronach” – czytamy. Algorytmy AI mogą także doprowadzić do poprawy efektów klinicznych. “Przykładem może być opracowanie algorytmów triażu pacjentów na izbach przyjęć. Ich wdrożenie pozwala na wypracowanie schematu odpowiedniej opieki zdrowotnej, a także optymalizację czasu oczekiwania poszczególnych pacjentów na opiekę, zgodnie z biomedyczną zasadą sprawiedliwości” – piszą autorzy raportu.
W związku z rozwojem AI pojawiają się także ryzyka i wyzwania. Jednym z nich jest kwestia odpowiedzialności za szkodę powstałą w związku z korzystaniem z rozwiązania technologicznego wykorzystującego AI. Brakuje gwarancji całkowitego bezpieczeństwa wykorzystania AI, zapewnienia ochrony danych osobowych oraz poszanowania własności intelektualnej i zasad przejrzystości działania.
“Istnieją również obawy dotyczące etyki związanej z wykorzystaniem AI w opiece zdrowotnej. Na przykład, algorytmy mogą wprowadzać uprzedzenia lub dyskryminację, jeśli nie są odpowiednio przeszkolone lub kalibrowane. Przykładem może być tutaj badanie z 2019 roku, w którym potwierdzono, że algorytm rzadziej kierował czarnoskórych pacjentów niż białych pacjentów o tak samo złym stanie zdrowia do programów mających na celu poprawę opieki dla pacjentów z złożonymi potrzebami medycznym” – czytamy . W raporcie przywołano wyniki badania Centrum e-Zdrowia, według których sztuczna inteligencja w polskich szpitalach przede wszystkim wspiera procesy diagnostyczne, w tym w szczególności analizę obrazów medycznych. Kolejnym obszarem jest wspieranie decyzji klinicznych w zakresie prowadzenia leczenia, a trzecim – procesy administracyjne i obsługi pacjenta.
Autorzy raportu zwrócili również uwagę na prawo unijne w zakresie AI – rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (AIA) oraz dyrektywę odpowiedzialności za sztuczną inteligencję (AILD). Rozporządzenie ustanawia m.in. zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów sztucznej inteligencji w UE, zakazy dotyczące określonych praktyk w zakresie sztucznej inteligencji, szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów. Jak podkreślono w podsumowaniu, sektor ochrony zdrowia już dziś wykorzystuje rozwiązania AI do niektórych procesów, zarówno tych administracyjnych jak i takich o charakterze stricte klinicznym; jednak prawdziwy rozwój potencjału sztucznej inteligencji w branży zdrowia i ochrony zdrowia jeszcze przed nami.
W rekomendowanych działaniach zwrócono uwagę m.in. na konieczność przyjęcia na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI, wdrożenie przepisów dotyczących ochrony danych w związku z wtórnym wykorzystaniem danych dotyczących zdrowia na potrzeby rozwoju systemów AI czy szkolenia personelu medycznego w zakresie bezpiecznego i efektywnego korzystania z technologii AI w procesie diagnostyczno-terapeutycznym.