Sztuczna inteligencja w medycynie i wyzwania jakie przed nią stoją.

Programy oparte na sztucznej inteligencji mogą być wykorzystywane jako narzędzia rozpoznające mowę i umożliwiające za jej pomocą wydawanie komend urządzeniom multimedialnym, rozpoznające obrazy – jak chociażby te, które na podstawie zdjęcia są w stanie rozpoznać osobę, osiągające świetne wyniki w grach czy używane do analizy dużych ilości danych i na ich podstawie wnioskujące by rozwiązywać problemy. Już dziś w codziennym życiu wielokrotnie korzystamy ze sztucznej inteligencji, ale jej prawdziwy rozkwit dopiero przed nami.

Sztuczna inteligencja jest wykorzystywana coraz szerzej w różnych dziedzinach naszego życia, nie ma więc nic dziwnego w tym, że zmiany dotykają także medycyny. W różnych jej dziedzinach powstają coraz to nowe programy wspomagające podejmowanie przez lekarzy decyzji terapeutycznych. Kiedy rewolucja technologiczna dotyka ludzkiego zdrowia i życia nie sposób nie zadać sobie pytania – czy na pewno jest to bezpieczne? Wprowadzenie do świata medycznego narzędzi sztucznej inteligencji może odbyć się tylko przy aprobacie odpowiednich organów.

W 2019 roku już ponad 20 programów opartych na sztucznej inteligencji było zaaprobowanych do użycia w Stanach Zjednoczonych przez Agencję Żywności i Leków (FDA), a w kwietniu tego roku FDA ogłosiło, że przygotowuje się do wydania uaktualnionych regulacji dotyczących programów sztucznej inteligencji, które uczą się nieustannie pozyskując nowe dane pochodzące z wykorzystania programów w praktyce klinicznej. 1 W propozycjach dot. Nowych regulacji oprócz wymogu publikacji pracy naukowej z wykorzystania sprawdzanego narzędzia w prospektywnym badaniu klinicznym zawarty jest także wymóg opracowania planu ograniczenia ryzyka związanego ze zmianami, które dojdą w algorytmie ze względu na stały i niemonitorowany rozwój narzędzia. Jak jest więc z programami, które zostały już zaaprobowane? Okazuje się, że reprezentują one tak zwane „zamknięte algorytmy”, które były uczone na konkretnych zestawach treningowych danych, nie uczą się automatycznie, a każda ewentualna aktualizacja pociąga za sobą testy walidacyjne, które gwarantują prawidłowe działanie systemu.

Podczas, gdy w Stanach Zjednoczonych produkty wykorzystujące AI w medycynie są oceniane przez FDA, w Europie funkcjonuje system certyfikacji wyrobów medycznych. Członkowie Unii Europejskiej wskazali 60 jednostek notyfikowanych, które sprawdzają i wydają opinię o zgodności produktu z
Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2017/745 (za wyjątkiem wyrobów medycznych I klasy ryzyka, dla której wytwórca samodzielnie przeprowadza ocenę zgodności). W Polsce jednostkami notyfikowanymi są: Polskie Centrum Badań i Certyfikacji, TÜV NORD Polska Sp. z o.o. oraz DQS Polska Sp. z o.o. 2,3 Europejska Agencja Leków (organ w UE odpowiadający amerykańskiej FDA) w niedawno wydanym dokumencie EMA Regulatory Science 2025 zwraca szczególną uwagę na programy wykorzystujące sztuczną inteligencję w medycynie postulując utworzenie „laboratorium” testów AI, a także podkreśla wagę wykorzystania narzędzi analizujących duże zbiory danych medycznych tworzonych przez multidyscyplinarne zespoły naukowców. 4 Nie ma wątpliwości, że dostosowanie regulacji do produktów opartych na sztucznej inteligencji w medycynie jest potrzebne – ze względu na bezpieczeństwo pacjentów, transparentność związaną z efektami narzędzia wykorzystywanego w praktyce klinicznej i utrzymania wysokiej jakości produktów wchodzących na rynki medyczne.

Przejście przez ocenę dotyczącą skuteczności i bezpieczeństwa narzędzia sztucznej inteligencji używanej w medycynie to być może najtrudniejsze, ale na pewno nie jedyne wyzwanie, które stoi przed jej twórcami. O problemie walidacji narzędzi, które na bieżąco uczą się analizując coraz większe bazy danych już wspomnieliśmy, ale kolejnym zagadnieniem pozostaje to, czy system może dane medyczne wykorzystywać do nauki, a jeśli tak to z jakimi obostrzeniami? Prawodawstwo UE określa dane medyczne jako jedną z kategorii danych osobowych, a co za tym idzie objętych szczególną ochroną 5 . Z drugiej strony system sztucznej inteligencji może przetwarzać wyłącznie dane medyczne (np. wyniki badań laboratoryjnych lub obrazowych) bez informacji identyfikujących pacjenta, a za zapewnienie odpowiednio zanonimizowanych danych odpowiadać jednostka uprawniona do ich pozyskania tj. uczelnia medyczna lub instytut badawczy. Problem dot. pozyskania niezbędnych danych do nauki dla systemów AI jest nie tylko skomplikowany z punktu widzenia prawnego, ale też etycznego – użyte zgodnie z prawem dane posłużą nie tylko przyniesieniu przyszłych korzyści w postaci lepszej opieki nad pacjentami, ale będą też częścią narzędzia przynoszącego twórcom zyski. Spośród wyzwań stojącymi przed wykorzystaniem AI w medycynie podaje się także trudności w raportowaniu o nieprawidłowym działaniu oprogramowania czy dylemat jak zarządzać informacjami dotyczącymi zagrożenia bezpieczeństwa pacjenta, które mimo że zawarte w analizowanym secie danych nie zostaną wykryte przez program (nie przez błąd, ale brak funkcjonalności systemu). Kiedy firmy wprowadzające na rynek nowoczesne technologie się z nimi uporają pozostanie jeszcze jedno – być może największe: jak przekonać ludzi – pracowników ochrony zdrowia i ich pacjentów by zaufali technologii, którą dostarczają? Dopiero i tylko wtedy sztuczna inteligencja będzie mogła zmienić oblicze współczesnej medycyny.

1. Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) – Discussion Paper and Request for Feedback, U.S. Food & Drug Administration
2. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG
3. https://www.gov.pl/web/zdrowie/wprowadzenie-wyrobow-medycznych-do-obrotu-i-do-uzywania
4. EMA regulatory science to 2025, MA/723198/2018, Scientific Committees Regulatory Science Strategy
5. Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Tekst mający znaczenie dla EOG)