Ob lansiranju novih orodij umetne inteligence, kot so ChatGPT, Midjourney in AlphaFold, si je težko predstavljati dan, ko se uporabnik ne bi srečal z AI – bodisi pri iskanju informacij, pisanju elektronske pošte ali ustvarjanju slik. Kljub temu, da AI vse bolj vstopa v vsakdanjik, številni uporabniki niso prepričani, ali lahko zaupajo njenim rezultatom. Zadnja globalna raziskava podjetja Pew Research Center iz leta 2026 razkriva, da je uporaba umetne inteligence v porastu, a zaupanje v njene izide ostaja nizko. Podobni trendi so zaznani tudi v Evropi, kjer Evropska komisija že aktivno pripravlja regulatorne okvire za varnejšo uporabo AI.
Rast uporabe in razkorak v zaupanju – med ZDA, Evropo in Slovenijo
V ZDA je raziskava Pew Research Center pokazala, da več kot 38 % odraslih redno uporablja orodja, kot so ChatGPT ali različni AI sestavljalniki besedil. Kljub povečani uporabi le 21 % anketirancev meni, da so rezultati umetne inteligence zanesljivi. Na evropski ravni poročilo Eurobarometer iz decembra 2025 beleži, da 35 % prebivalcev EU uporablja AI orodja, vendar zaupanje v digitalne rešitve v večini držav ne presega 22 %.
V Sloveniji raziskava Statističnega urada RS iz februarja 2026 kaže, da AI uporablja 31 % odraslih, največ v poslovnem in izobraževalnem okolju. Uporabljajo predvsem orodja, kot so Grammarly, Adobe AI funkcije in Google Bard. Medtem pa zaupanje v AI rešitve izraža le petina vprašanih, zaskrbljenost pa lahko povežemo predvsem z netransparentnostjo in slabim razumevanjem delovanja algoritmov.
Evropska unija se aktivno loteva vprašanja zaupanja in regulacije s sprejemanjem Akta o umetni inteligenci (AI Act), ki uvaja zahteve glede pojasnljivosti in odgovornosti AI rešitev. Slovenski podjetji, kot sta Gen-I in Zemanta, poročata o izzivih pri dokazovanju zanesljivosti svojih AI modelov, predvsem pri razlagi delovanja in odpravljanju pristranskosti.
Zakaj uporabniki ne zaupajo AI in kako naprej?
Eden ključnih razlogov za nizko zaupanje je slaba preglednost delovanja algoritmov. Uporabniki pogosto ne vedo, na kakšen način AI pride do rešitev ali zakaj se pojavijo napake. Medijskega poročanja o incidentih, kot so lažno generirane slike ali diskriminatorne odločitve algoritmov, dodatno povečujejo zadržanost. Med pogostimi razlogi so tudi občutki izgube nadzora nad lastnimi podatki ter strah pred avtomatizacijo delovnih mest.
Strokovnjaki izpostavljajo, da bi transparentnost in pojasnljiva AI (XAI) lahko igrali ključno vlogo pri gradnji zaupanja. To pomeni, da morajo razvijalci zagotoviti, da uporabniki razumejo, na podlagi katerih podatkov in pravil AI sprejema odločitve. Regulatorji, kot je Evropska komisija, uvajajo stroge smernice glede testiranja, ocenjevanja in certificiranja AI sistemov, hkrati pa podpirajo izobraževanje uporabnikov in promocijo etičnih standardov.
Prihodnje rešitve zahtevajo sodelovanje med razvijalci, regulatorji, izobraževalnimi institucijami in uporabniki. Le s skupnim oblikovanjem jasnih pravil, izmenjavo dobrih praks in vzpostavitvijo močnih etičnih okvirov bo mogoče doseči večje zaupanje. Če razkorak med uporabo in zaupanjem ne bo odpravljen, obstaja nevarnost počasnejše adopcije AI in celo upočasnitve inovacij. Hiter razvoj in sprejemanje umetne inteligence bosta mogoča le, če bodo rešitve pregledne, preverljive in usmerjene v dobrobit celotne družbe.
