Na področju umetne inteligence postaja vprašanje zanesljivosti in predvidljivosti rezultatov vedno bolj pereče, zlasti v zdravstvu, kjer ima lahko vsaka napaka resne posledice za paciente. V zadnjih letih so se številna podjetja in raziskovalne skupine, kot sta Google Health in DeepMind, usmerila v razvoj metod, ki bi omogočile bolj enotne in preverljive rezultate AI sistemov. Nedoslednosti pri interpretaciji medicinskih posnetkov ali analizah laboratorijskih izvidov lahko vodijo do napačnih diagnoz ali zgrešenih terapij, kar je že povzročilo številne zaplete v bolnišnicah po vsem svetu.

Konkretni primeri iz zdravstva

V letu 2023 je v Združenem kraljestvu raziskava, ki jo je izvedla ekipa DeepMind, pokazala, da je njihov model za analizo rentgenskih slik za enako sliko v 8 odstotkih primerov podal različne diagnoze, kar je sprožilo pomisleke med zdravniki. Google Health je pri testiranju svojega AI sistema za odkrivanje diabetične retinopatije ugotovil, da model v različnih okoljih pogosto interpretira enake podatke različno, zaradi česar so morali rezultate še vedno preverjati oftalmologi. Po podatkih ameriškega združenja za medicinsko informatiko so AI sistemi v več kot 12 odstotkih testiranih primerov v klinikah poročali o neskladnih priporočilih glede zdravljenja akutnih bolezni.

Takšne nedoslednosti lahko pomenijo, da zdravniki izgubijo zaupanje v tehnologijo in se povečajo stroški zaradi dodatnih potrebnih preverjanj. V več medicinskih centrih so na primer morali za določen čas ustaviti uporabo AI sistemov, dokler niso uvedli dodatnih varnostnih ukrepov ali izboljšali algoritmov. Posledično se razvoj rešitev, ki bi zagotovile večjo stabilnost izhodov, vse bolj seli v ospredje raziskav.

Raziskovalci iz MIT so začeli projekt, pri katerem uporabljajo napredne tehnike učenja pod nadzorom, da bi zmanjšali vpliv naključnih dejavnikov v modelih za analizo MRI slik. Prvi rezultati kažejo, da je mogoče z izboljšanimi postopki treniranja zmanjšati stopnjo nedoslednosti pri izhodih za 40 odstotkov v določenih primerih.

Praktične rešitve in prihodnji koraki

V podjetju Philips razvijajo platformo za klinično podporo, ki vključuje orodja za preverjanje kakovosti rezultatov AI sistemov v realnem času. S tem medicinskemu osebju omogočijo, da hitreje zazna morebitne napake in se izogne napačnim odločitvam. Uporaba tovrstnih orodij se v zadnjih dveh letih povečuje, saj podatki MedTech Europe kažejo, da je v letu 2024 že več kot 18 odstotkov evropskih bolnišnic uporabljalo sisteme za nadzor kakovosti AI izhodov.

Vzporedno z razvojem tehnologije poteka tudi priprava regulativ, ki naj bi omogočile večjo transparentnost in odgovornost pri uporabi umetne inteligence v zdravstvu. Evropska komisija je tako leta 2024 sprejela prve smernice za certificiranje AI sistemov na področju medicine, kar bo po ocenah analitikov spodbudilo dodatne investicije v razvoj zanesljivejših modelov.

Strokovnjaki napovedujejo, da bo ključno sodelovanje med razvijalci, zdravniki in regulatorji, saj bo le s skupnimi standardi in stalnim nadzorom mogoče vzpostaviti sisteme, ki bodo resnično služili pacientom. Uspešna integracija AI rešitev v zdravstvo bo odvisna od jasnih protokolov za preverjanje rezultatov in odpravljanja napak, kar postaja prioritetna naloga za prihodnje leto.

Leave A Reply

Exit mobile version