Algorytm wykryje pacjentów, których nie da się wyleczyć. Statystyka kontra nadzieja

Artykuł/Nauka 18.01.2018
Algorytm wykryje pacjentów, których nie da się wyleczyć. Statystyka kontra nadzieja

Algorytm wykryje pacjentów, których nie da się wyleczyć. Statystyka kontra nadzieja

Medycyna paliatywna to dział medycyny, który zajmuje się opieką nad nieuleczalnie chorymi. Jak myślicie – w jaki sposób takim pacjentom mogą przysłużyć się algorytmy uczenia maszynowego?

Czasem bywa tak, że choroba, z którą zgłasza się pacjent, jest w zbyt zaawansowanym stanie, żeby dało się go wyleczyć. Bywa też tak, że choroba jest po prostu nieuleczalna.

Takim pacjentom można zaoferować tylko “końcową” opiekę lekarską, i zadbać o ich — w miarę możliwości — dobre samopoczucie na ostatniej prostej. Na pierwszy rzut oka sztuczna inteligencja ma takim pacjentom niewiele do zaoferowania.

Algorytm do przewidywania śmierci.

Na pomysł wykorzystania SI w opiecie paliatywnej wpadła Stephanie Harman, internista i dyrektor medyczna Palliative Care Services w Stanford Medical Care. Zanim jednak do niego przejdziemy, musicie przeczytać jeszcze kilka zdań o samej opiece paliatywnej.

Do tej pory, personel zajmujący się taką opieką czekał na wiadomość od lekarzy lub samego pacjenta, że to “już czas”. Niekiedy zdarza się, że takie zgłoszenie wykonywane jest bardzo, bardzo późno.

Z badań, na które powoływała się Harman wynika, że ok. 80 proc. Amerykanów chciałoby spędzić swoje ostatnie chwile przed śmiercią w domu. W rzeczywistości wygląda to tak, że ok. 60 proc. z nich, leżąc w szpitalu. Nieuleczalnie chorzy bardzo często poddawani są też bardzo agresywnym metodom leczenia.

Algorytm, który narodził się w głowie dr Harman i powstał na Uniwersytecie Stanforda zajmował się będzie wykrywaniem nieuleczalnie chorych osób, przebywających w szpitalu. Dzięki temu będzie można im szybciej zaoferować mniej agresywną opiekę, która skupiać się będzie na zapewnieniu im jak najlepszych warunków.

Problem czarnej skrzynki.

Jednym z problemów z obecną generacją algorytmów SI jest tzw. black box problem. Chodzi o to, że maszyny potrafią znaleźć o wiele bardziej skomplikowane wzorce zależności, ukryte w analizowanych danych, niż ludzie. Stąd też zdarza się, że twórca algorytmu nie do końca rozumie, jak działa jego kreacja.

Głośnym przykładem problemu czarnej skrzynki był np. program Deep Patient, który analizując karty pacjentów szpitala Mount Sinai Hospital w Nowym Jorku nauczył się wykrywać osoby chore na schizofrenię. Nikt do końca nie wie w jaki sposób.

Algorytm do wyszukiwania śmiertelnie chorych do analizy danych otrzymał karty ok. 2 mln pacjentów, które pochodziły ze szpitala Stanford Hospital i szpitala dziecięcego Lucile Packard Chilldren’s.

W jego przypadku czasami też nie do końca wiadomo, na jakiej podstawie wytypował on osobę, której stan wskazuje na to, że umrze w przeciągu 12 miesięcy. Dla uczonych z Uniwersytetu Stanforda nie jest to jednak zbyt duży powód do zmartwienia.

— W tym konkretnym przypadku problem czarnej skrzynki nie przeszkadza nam w ogóle. Opieka paliatywna nie jest związana z tym, dlaczego ktoś choruje. Gdyby nasz algorytm miał decydować na przykład o metodzie leczenia, to jasne – chcielibyśmy wiedzieć na jakiej podstawie podejmuje swoje decyzje. Ale w jego obecnym zastosowaniu nie ma to żadnego znaczenia. O ile potrafi wskazywać właściwie. – mówi Kenneth Jung, jeden z naukowców odpowiedzialnych za stworzenie algorytmu.

Nie oznacza to oczywiście, że twórcy algorytmu nie starają się zrozumieć tego, jak działa.

To w końcu naukowcy. Na razie jednak ich metoda “diagnostyki” pozostawia wiele do życzenia. Sprawdzają oni reakcje algorytmu na zmianę poszczególnych danych w karcie pacjenta, chcąc dowiedzieć się, które parametry mają największy wpływ na podejmowane przez niego decyzje.

Zrozumienie zasady działania skomplikowanych algorytmów uczenia maszynowego to jedna z zagadek, która nadal czeka na swoje rozwiązanie. Dlatego też powstają takie projekty, jak DeepXplore.

Z algorytmem wskazującym śmiertelnie chorych jest tylko jeden problem.

I nie ma on nic wspólnego z działaniem algorytmu. Chodzi raczej o efekt psychologiczny, które taki algorytm może wywrzeć na lekarzach. Może zdarzyć się bowiem tak, że algorytm wskaże jakiegoś ciężko chorego pacjenta, zasugeruje się tym lekarz i stwierdzi, że dalsze leczenie rzeczywiście nie ma sensu.

Do tego dochodzi problem firm ubezpieczeniowych. Wyobraźcie sobie na przykład umowę, w której zapisano, że finansowanie waszego leczenia kończy się w chwili, w której zostaniecie wskazani przez algorytm.

Brzmi to na razie jak fabuła kolejnego odcinka Black Mirror, ale nie jest niemożliwe.

Dołącz do dyskusji

Advertisement