A A A

Sztuczna inteligencja wciąż nie umie diagnozować Covid-19

2 sierpnia 2021, 09:00
Badania pokazują, że AI nie jest zbyt pomocne w walce z pandemią.
Sztuczna inteligencja wciąż nie umie diagnozować Covid-19

Oblany egzamin

Pandemia covid-19 wywołała poważny kryzys w europejskiej służbie zdrowia. Lekarze zaskoczeni nową sytuacją nie mieli pojęcia, w jaki sposób sprawnie udzielać pomocy pacjentom. Od początku starano się więc wesprzeć medycynę za pomocą algorytmów uczenia maszynowego, pozwalających lekarzom szybciej podejmować decyzje. Świat nauki miał nadzieję, że właśnie w obliczu nowej sytuacji, sztuczna inteligencja pokaże swoją przydatność.

Niestety, oczekiwania te zdaniem naukowców się nie spełniły – ale nie z powodu braku wysiłku zespołów badawczych, które opracowały łącznie kilkaset narzędzi analitycznych. Raport brytyjskiego Instytutu Turinga pokazuje jednak, że żaden nie przyniósł w walce z pandemią przełomu, a część okazała się nawet szkodliwa.

 

Bez wartości naukowej

W wyniku składających się na raport dwóch serii badań oceniono setki narzędzi prognostycznych do diagnozowania pacjentów lub przewidywania skali zachorowań. Okazało się, że tak naprawdę jedynie 2 z 232 algorytmów (na których bazuje łącznie 415 narzędzi) nadają się do użytku klinicznego – i to jedynie jako narzędzia „wystarczająco obiecujące do dalszego testowania”. Modele głębokiego uczenia służące do diagnozowania Covid-19 na podstawie zdjęć rentgenowskich czy tomografii klatki piersiowej okazały się w większości ogromną porażką świata nauki.

Naukowcy odkryli, że problem leżał w metodach trenowania narzędzi. Błędne podejście sprawiło, że nie działają one zgodnie z założeniami. Winny jest głównie pośpiech i niska jakość stosowanych danych. Twórcy systemów brali pod uwagę wyłącznie publicznie dostępne materiały, które w wielu przypadkach były dodatkowo błędnie oznaczone lub pochodziły z nieznanych źródeł. Badacze nie uwzględniali też wreszcie podstawowych szczegółów. Jest to o tyle istotne, że znaczenie dla AI miał nawet fakt, czy osoba na prześwietleniu znajdowała się w pozycji leżącej czy stojącej – wpływało to na ocenę ryzyka.

 

Odrobiona spokoju

Autorzy raportu co prawda wciąż wierzą, że technologia jest w stanie pomagać, ale dalsze popełnianie takich samych błędów może wywołać poważne konsekwencje. Sytuację da się jeszcze oczywiście naprawić, ale podstawą jest trenowanie AI z rozwagą, na sprawdzonych i prawidłowo opisanych danych, do tego przez osoby z wykształceniem medycznym. Często AI trenowali zwykli informatycy, nie mający o temacie zielonego pojęcia. Bez przywrócenia odrobiny zdrowego rozsądku, sztuczna inteligencja może większym zagrożeniem niż pomocą Wyciągnięcie wniosków z popełnionych błędów to już zadanie dla ludzi.

fot. Pixabay


Krzysztof Kempski
Ocena:
Oceń:
Komentarze (0)

Redakcja nie ponosi odpowiedzialności za treść komentarzy. Komentarze wyświetlane są od najnowszych.
Najnowsze aktualności




Załóż konto
Co daje konto w serwisie pcformat.pl?

Po założeniu konta otrzymujesz możliwość oceniania materiałów, uczestnictwa w życiu forum oraz komentowania artykułów i aktualności przy użyciu indywidualnego identyfikatora.

Załóż konto