Sztuczna inteligencja wciąż nie umie diagnozować Covid-19
Oblany egzamin
Pandemia covid-19 wywołała poważny kryzys w europejskiej służbie zdrowia. Lekarze zaskoczeni nową sytuacją nie mieli pojęcia, w jaki sposób sprawnie udzielać pomocy pacjentom. Od początku starano się więc wesprzeć medycynę za pomocą algorytmów uczenia maszynowego, pozwalających lekarzom szybciej podejmować decyzje. Świat nauki miał nadzieję, że właśnie w obliczu nowej sytuacji, sztuczna inteligencja pokaże swoją przydatność.
Niestety, oczekiwania te zdaniem naukowców się nie spełniły – ale nie z powodu braku wysiłku zespołów badawczych, które opracowały łącznie kilkaset narzędzi analitycznych. Raport brytyjskiego Instytutu Turinga pokazuje jednak, że żaden nie przyniósł w walce z pandemią przełomu, a część okazała się nawet szkodliwa.
Bez wartości naukowej
W wyniku składających się na raport dwóch serii badań oceniono setki narzędzi prognostycznych do diagnozowania pacjentów lub przewidywania skali zachorowań. Okazało się, że tak naprawdę jedynie 2 z 232 algorytmów (na których bazuje łącznie 415 narzędzi) nadają się do użytku klinicznego – i to jedynie jako narzędzia „wystarczająco obiecujące do dalszego testowania”. Modele głębokiego uczenia służące do diagnozowania Covid-19 na podstawie zdjęć rentgenowskich czy tomografii klatki piersiowej okazały się w większości ogromną porażką świata nauki.
Naukowcy odkryli, że problem leżał w metodach trenowania narzędzi. Błędne podejście sprawiło, że nie działają one zgodnie z założeniami. Winny jest głównie pośpiech i niska jakość stosowanych danych. Twórcy systemów brali pod uwagę wyłącznie publicznie dostępne materiały, które w wielu przypadkach były dodatkowo błędnie oznaczone lub pochodziły z nieznanych źródeł. Badacze nie uwzględniali też wreszcie podstawowych szczegółów. Jest to o tyle istotne, że znaczenie dla AI miał nawet fakt, czy osoba na prześwietleniu znajdowała się w pozycji leżącej czy stojącej – wpływało to na ocenę ryzyka.
Odrobiona spokoju
Autorzy raportu co prawda wciąż wierzą, że technologia jest w stanie pomagać, ale dalsze popełnianie takich samych błędów może wywołać poważne konsekwencje. Sytuację da się jeszcze oczywiście naprawić, ale podstawą jest trenowanie AI z rozwagą, na sprawdzonych i prawidłowo opisanych danych, do tego przez osoby z wykształceniem medycznym. Często AI trenowali zwykli informatycy, nie mający o temacie zielonego pojęcia. Bez przywrócenia odrobiny zdrowego rozsądku, sztuczna inteligencja może większym zagrożeniem niż pomocą Wyciągnięcie wniosków z popełnionych błędów to już zadanie dla ludzi.
fot. Pixabay