Zmiana łagodna czy nowotwór? Choroba Alzheimera, a może schizofrenia? Kto przeżyje spośród pacjentów właśnie przyjętych do szpitala z powodu COVID-19? Jeśli lekarze tego jeszcze nie wiedzą, może im to podpowiedzieć sztuczna inteligencja. Algorytmy przestały być zabawą informatyków. Coraz częściej decydują o diagnozie, funkcjonowaniu szpitala, a nawet o leczeniu.
Program specjalistów z New York University Grossman School of Medicine z 90-procentowym pewnością określa, kto z nowoprzyjętych chorych będzie potrzebował respiratora, a kto umrze z powodu COVID-19. Nakarmiono go danymi prawie 4 tys. duńskich pacjentów z tą chorobą. Algorytm przeanalizował kilkaset gigabajtów danych z 5224 zdjęć RTG klatki piersiowej wykonanych u 2943 ciężko chorych pacjentów zakażonych wirusem SARS-CoV-2. Uwzględnił wiek, rasę i płeć pacjentów, a także niektóre parametry życiowe, wyniki badań laboratoryjnych, masę i temperatura ciała oraz poziom komórek odpornościowych we krwi.
Na Uniwersytecie Cambridge powstał algorytm wykrywający wczesne zmiany w mózgu, zwiastujące demencję z wieloletnim wyprzedzeniem. „Nauczyliśmy system rozpoznawać bardzo wczesne oznaki demencji jedynie na podstawie wzorców utraty objętości istoty szarej w mózgu. Gdy dane te zestawi się z wynikami standardowych testów funkcji poznawczych, można przewidzieć tempo postępowania choroby. Udało się nawet zidentyfikować osoby, które nie przejawiały jakichkolwiek objawów, a mimo to w późniejszym czasie rozwinęła się u nich demencja”- zapewnia prof. Zoe Kourtzi z Cambridge.
Podobnych przykładów jest znacznie więcej. Sztuczna inteligencja wkroczyła do radiologii i onkologii, będzie niedługo odgrywała olbrzymią rolę w kardiologii obrazowej. W medycynie nuklearnej weszła na III i IV poziom w pięciostopniowej skali, jak zapewnia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej. „Sztuczna inteligencja – to niewątpliwie przyszłość medycyny. Pozwala przetworzyć ogromne ilości danych w czasie rzeczywistym, analizować obrazy, dane genetyczne, analizować wyniki leczenia i je planować” – stwierdza dr Maciej Bobowicz z Katedry i Kliniki Onkologicznej Gdańskiego Uniwersytetu Medycznego. Jest on liderem międzynarodowego projektu EuCanImage dotyczącego wykorzystania sztucznej inteligencji następnej generacji w medycyny precyzyjnej i onkologii. Jego zespół bada trzy typy nowotworów – raka piersi, jelita grubego i pierwotne nowotwory wątroby. „Tworzymy algorytmy pomagające postawić właściwą diagnozę, czy to jest w ogóle nowotwór, a jeśli tak to jakiego rodzaju, oraz na jakie leczenie najbardziej będzie reagował” – wyjaśnia.
Jakie są ograniczenia? „Na tym etapie jest ich sporo. Staramy się skupić na tzw. uczeniu rozproszonym, czyli próbujemy to zrobić na wielu komputerach, a nie tylko na jednym, połączonych w ogromną sieć. Czyli nie tylko sieć neuronowa w obrębie jednego komputera, lecz wielu komputerów. Chodzi zatem, o stworzenie super sytemu zdolnego analizować ogromną ilość danych” – dodaje Maciej Bobowicz.
Sztuczna inteligencja ma tę ogromna zaletę, że się nie męczy. „Chcielibyśmy, żeby sztuczna inteligencja wytworzona przez pewne algorytmy była podobna do naszej, ale mogła pracować przez 24 godziny, siedem dni w tygodniu. Zawsze uważna i skoncentrowana jedynie na tym, co ma robić, przydatna nam i służebna. Boimy się jedynie, że zacznie żyć własnym życiem i w pewnym momencie te role mogą się odwrócić” – uważa prof. Barbara Bobek-Billewicz z Zakładu Radiologii i Diagnostyki Obrazowej Narodowego Instytutu Onkologii w Gliwicach.
Jej zdaniem AI jest już obecna w diagnostyce, zwłaszcza tej opartej na obrazach. „Mamy w niej dwa zadania: jedno to detekcja, a drugie – interpretacja. Sztuczna inteligencja już jest, a wkrótce może nawet zastąpi detekcję. Nie ma co do tego żadnych wątpliwości. Znajdzie w obrazach zmiany odbiegające od normy, określi podejrzane komórki i inne struktury” – zaznacz prof. Bobek-Bilewicz. AI robi również coraz większe postępu w interpretacji obrazów i danych. I nie cierpi na tzw. zespół szczęśliwego radiologa: gdy widzi jedną zmianę, to tak się z tego powodu cieszy, że słabnie u niego czujność szukania kolejnych.
Wykorzystanie sztucznej inteligencji jest już koniecznością. Liczba badań oraz danych w każdym badaniu rośnie lawinowo. Wykonywana rutynowo tomografia komputerowa klatki piersiowej, jamy brzusznej i miednicy – to tysiące obrazów. Trudno dotrzymać terminu opisu takiego badania – twierdzą radiolodzy. Podobnie jest w przypadku anatomii patologicznej i immunohistochemii.
„Skończyła się medycyna na kartkach papieru. Teraz wszystko mamy w systemach informatycznych i to zasila bazy danych i może być wykorzystane przez nowoczesne algorytmy działające tym skuteczniej, im bardziej się uczą, dokonują analiz i otrzymują więcej danych. W pewnym sensie potrafią się samodoskonalić” – uważa prof. Grzegorz W. Basak, kierownik Kliniki Hematologii, Transplantologii i Chorób Wewnętrznych Warszawskiego Uniwersytetu Medycznego.
Prof. Rafał Ohme z Wyższej Szkoły Bankowej w Warszawie uważa, że najważniejszym zadaniem jest takie uformowanie sztucznej inteligencji, żeby była najmądrzejsza w diagnozie – „Ma dwie umiejętności, której brakuje człowiekowi: nieograniczoną pojemność danych oraz szerowania danych, o czym nam się nawet nie śniło. Potrafi szerować swoje dane z miliardami obiektów”. Jego zdaniem, w przyszłości diagnozując pacjenta będziemy wiedzieli o nim wszystko, np. jego historię życia i zwyczaje, jak też na temat jego rodziny. Bo AI będzie podpięta pod jego konto na facebooku czy instagramie, i będzie wiedziała jak często sięga po alkohol, imprezuje, ile śpi, pozna także inne parametry zdrowotne uzyskane np. z smartwatcha na ręku. Sztuczna inteligencja będzie miała zatem nieograniczony dostęp do danych o pacjentach, nieporównywalnie większy niż nawet najbardziej doświadczony lekarz.
To budzi też obawy. „Największym zagrożeniem związanym ze sztuczną inteligencją będzie właśnie posiadanie całkowitej wiedzy o poszczególnych osobach – przyznaje dr Maciej Bobowicz. – “Ma to pomoc w monitorowaniu zdrowia i diagnostyce, w wykrywaniu nowotworów, zanim jeszcze się rozwiną. Ale gdy władzę nad tym systemem posiądzie władza autorytarna, to może ją wykorzystać przeciwko nam”.
Wyzwaniem jest tzw. czarna skrzynka, „mózg” komputera, który nie zawsze działa w takim schemacie, jak byśmy tego oczekiwali czy w takim, który znamy i rozumiemy. „Liczne ukryte warstwy w algorytmach powodują, że do końca nie jesteśmy pewni, na podstawie jakich przesłanek algorytm podejmuje decyzje. Widzimy tylko wynik końcowy” – zwraca Maciej Bobowicz.
Tym jednak nie przejmuje się Eric Topol, badacz medycyny cyfrowej ze Scripps Research Institute w La Jolla w Kalifornii. W wypowiedzi dla „Scientific American” przypomina, że w medycynie stosowane są leki i terapie, których działania w pełni nie znamy, ale wiemy, że są skuteczne. Przykładem jest choć używany w leczeniu depresji lit. Wiele zależy od odpowiedniego doboru danych. Gdy jeden z algorytm z 90 proc. skutecznością określał zapalenie płuc na podstawie RTG w jednym ośrodku (w Mount Sinai), to w innych okazał się mniej wiarygodny. Bo w tych ośrodkach byli nieco inni pacjenci, system się na nich “nie poznał”. Nikt mu nie podpowiedział, że jego oceny mają mieć bardziej uniwersalny charakter.
„Systemy wykorzystują ogromne zbiory danych, dlatego algorytmy są mocno dopasowane do danych uczących. Gdy chcemy przetransponować uzyskane wyniki na życie codzienne, czyli pacjenta w klinice lub poradni, to okazuje się, że nie zawsze działa to tak sprawnie jak w warunkach laboratoryjnych” – wyjaśnia dr Bobowicz. Dane mogą być obarczone błędami systemowymi, z których twórcy algorytmu w ogóle nie zdają sobie sprawy.
Certyfikacja tych systemów przebiega podobnie jak w przypadku pierwszej fazy badań klinicznych leków – trzeba jedynie wykazać, że dany algorytm działa. Jaką ma czułość i swoistość – to wszystko, co należy wykazać. „Lekarze potrzebują jednak klinicznej użyteczności algorytmów, czyli zobaczenia, jak to działa w rzeczywistości. Brakuje walidacji zewnętrznej skuteczności algorytmów, takie badania dopiero się pojawiają i są jednak bardzo kosztowne” – dodaje gdański specjalista. Kolejnym problemem jest odpowiedzialność za decyzje kliniczne. Lekarze kierują się zasada primum non nocere, przede wszystkim nie szkodzić. Czy będziemy w stanie oprzeć się na takiej, a nie innej decyzji algorytmu, zaufać mu i za nim podążać? – „Moi koledzy twierdzą, że znaczna część lekarzy zbyt ufa sztucznej inteligencji. Podejmują oni decyzje kliniczne nie mając pełnego obrazu jej działania” – ostrzega Maciej Bobowicz.
Być może są to jedynie choroby dziecięce sztucznej inteligencji. „Sztuczną inteligencję trzeba nauczyć, a na to potrzeba czasu” – uważa prof. Rafał Ohme. Jego zdaniem, kluczowe znaczenie ma karmienie AI, która jest dopiero w fazie embrionalnej – „To jest jak samolot braci Wright, który początkowo jedynie podskakiwał, a potem potrafił przelecieć jedynie kilkadziesiąt kilometrów. W przypadku sztucznej inteligencji jest jeszcze duża przestrzeń do poprawy właśnie dzięki karmieniu jej danymi, ale w sposób systematyczny”.
Rafał Ohme uważa, że cywilizacja, która zrobi to szybciej, będzie miała większą szansę dominacji – „Obawiam się, że nasza zachodnia cywilizacja nie dominuje w karmieniu danymi sztucznej inteligencji. Inne nacje przodują w tym zakresie, bo nie mają tylu dylematów w tej sprawie co my. Ale to już zupełnie inna historia”.
© mZdrowie.pl