Sztuczna inteligencja nie zawsze pomaga. Jak wynika z badania opublikowanego w czasopiśmie "Radiology", AI może wprowadzać w błąd radiologów, którzy zbytnio polegają na jej podpowiedziach. Naukowcy przekonują, że między nowymi technologiami sztucznej inteligenci a możliwością ich praktycznego zastosowania w medycynie jest jeszcze spory rozdźwięk.

REKLAMA

Do 2022 roku amerykańska Agencja Żywności i Leków (FDA) zatwierdziła 190 programów AI do zastosowań w radiologii. Jednak pojawiła się luka między dowodami koncepcyjnymi odnośnie AI a jej zastosowaniem w rzeczywistej praktyce klinicznej. Aby zlikwidować tę lukę, kluczowe jest zbudowanie odpowiedniego zaufania do wskazań sztucznej inteligencji - powiedział jeden z głównych autorów publikacji, dr Paul H. Yi z St. Jude Children’s Research Hospital w Memphis w stanie Tennessee.

W badaniu wzięło udział 220 specjalistów - radiologów, lekarzy medycy wewnętrznej i medycyny ratunkowej. Każdy z nich dostał do oceny osiem przypadków badania rentgenowskiego łącznie ze wskazówkami wygenerowanymi przez asystenta AI. Do dyspozycji lekarzy była także historia kliniczna pacjenta.

Sztuczna inteligencja dostarczała poprawną lub błędną diagnozę wraz z tzw. lokalnymi lub globalnymi wyjaśnieniami. W wyjaśnieniach lokalnych wyróżniała fragmenty obrazu uznane za najważniejsze. Natomiast w globalnych prezentowała podobne obrazy z wcześniejszych przypadków, by pokazać, jak doszła do swojej diagnozy.

Specjaliści mogli zaakceptować, zmodyfikować bądź całkowicie odrzucić sugestie AI. Jak się okazało, eksperci częściej dostosowywali swoje decyzje diagnostyczne do sugestii AI i poświęcali mniej czasu na ich analizę, gdy system dostarczał lokalnych wyjaśnień.

Wyniki wykazały, że w przypadku poprawnych sugestii sztucznej inteligencji w wyjaśnieniach lokalnych, średnia dokładność diagnostyczna specjalistów wynosiła 92,8 proc. Przy wyjaśnieniach globalnych było to 85,3 proc. Kiedy sugestie były błędne, dokładność lekarzy wynosiła już tylko odpowiednio 23,6 i 26,1 proc.

Kiedy zbytnio polegamy na tym, co mówi nam komputer, staje się to problemem, ponieważ AI nie zawsze ma rację. Uważam, że jako radiolodzy korzystający z tych systemów, musimy być świadomi tego typu pułapek i pamiętać o naszych procedurach diagnostycznych oraz szkoleniu. Jestem zdania, że kluczem jest współpraca między przemysłem i badaczami zajmującymi się opieką zdrowotną. Mam nadzieję, że nasz artykuł rozpocznie dialog i owocną współpracę - podkreślił dr Yi.