Ali lahko vaša odločitev o deljenju podatkov preoblikuje prihodnost umetne inteligence?
Zasebnost podatkov je v zadnjih letih postala ena najbolj vročih tem v svetu tehnologije. Ob vse večjih zmogljivostih umetne inteligence se uporabniki pogosto sprašujejo, koliko nadzora imajo nad svojimi podatki in ali imajo dejansko pravico odločanja o tem, ali ti podatki postanejo del “pogona” za učenje prihodnjih generacij robotov in digitalnih pomočnikov.
Jasna možnost izstopa – in kako deluje v praksi
Podjetje Anthropic je v svojo platformo vključilo novo funkcijo, ki vsakemu uporabniku omogoča, da preko spletnega uporabniškega vmesnika ali posebne nastavitve znotraj aplikacije preprosto označi, da ne želi, da se njegovi pogovori in informacije uporabljajo za nadaljnje treniranje umetne inteligence. Postopek je zasnovan tako, da ga lahko uporabnik izvede z nekaj kliki brez potrebe po zapletenih obrazcih ali čakanju na odobritev.
V primerjavi z velikani, kot sta OpenAI in Google, kjer je opt-out postopek pogosto manj pregleden ali skrit v poglobljenih nastavitvah, Anthropicova rešitev izstopa zaradi neposrednosti in uporabniku prijaznega pristopa. OpenAI sicer ponuja možnost izstopa iz zbiranja podatkov, vendar je ta funkcija dostopna le nekaterim uporabnikom oziroma je pogojena z vrsto storitve. Google na drugi strani pogosto avtomatično vključuje podatke uporabnikov v svoje procese treniranja, razen če uporabnik izrecno izklopi to funkcijo v nastavitvah zasebnosti.
Kakšne so posledice za kakovost umetne inteligence?
Odločitev uporabnikov, da ne delijo svojih podatkov, odpira vprašanja o raznolikosti in reprezentativnosti učnih vsebin. Če večji delež uporabnikov izstopi iz procesa, lahko pride do pomanjkanja določenih jezikovnih vzorcev ali podatkov iz specifičnih družbenih okolij, kar bi lahko povzročilo pristranskost modelov in manjšo natančnost pri generiranju odgovorov.
Anthropic je v svojih razlagah uporabnikom izpostavil, da si bo prizadeval za uravnoteženje med zasebnostjo in učinkovitostjo modelov. Eden izmed pristopov je vključevanje sintetičnih podatkov ali javnih zbirk besedil in sprotno spremljanje kakovosti rezultatov. S tem naj bi zmanjšali tveganje, da bi umetna inteligenca postala “slepa pega” za posamezne izkušnje ali jezikovne posebnosti.
Primerjava praks v industriji
V industriji UI trenutno ni enotnega pristopa k ravnanju s podatki uporabnikov. OpenAI omogoča odstranitev uporabnikovih podatkov iz procesa učenja le ob podaljšanih postopkih ali v določenih komercialnih storitvah. Google pogosto uporablja podatke uporabnikov za testiranje ter izboljšave, opt-out pa je premalo izpostavljen in zahteva dodatno tehnično znanje.
Anthropic si z novo politiko prizadeva za večjo dostopnost in nadzor uporabnikov nad lastnimi podatki ter izpostavlja, da je lažja razumljivost nastavitev ključ do zaupanja uporabnikov v podjetje in tehnologijo.
Kaj pravijo strokovnjaki?
Strokovnjaki s področja varstva podatkov ocenjujejo, da bi lahko Anthropicov pristop postal vzor drugim tehnološkim podjetjem, saj povečuje preglednost in krepi občutek vpliva uporabnikov na razvoj digitalnih orodij. Obenem opozarjajo, da je dolgoročno pomembno spremljati, kako bo zmanjšanje količine podatkov vplivalo na raznovrstnost in zanesljivost modelov umetne inteligence – še posebej pri jezikih ali temah, ki so v digitalnih virih manj zastopani.
Strokovna javnost pozdravlja možnost, da podjetja končno prepoznavajo pomen “privzete zasebnosti”, hkrati pa poziva k večji odprtosti glede tega, katere vrste podatkov se uporabljajo in kako dolgo ostanejo v sistemih za treniranje.
Pomemben korak za uporabnike in industrijo
Anthropicova nova politika opt-out predstavlja pomemben premik v panogi umetne inteligence in bi lahko vplivala tudi na prihodnje prakse drugih tehnoloških podjetij. Uporabniki pridobivajo jasen nadzor nad svojo digitalno sledjo, podjetja pa hkrati iščejo nove rešitve, kako zagotoviti kakovostno učenje tudi z manjšim obsegom zasebnih podatkov.
V ospredje stopa vprašanje: ali bodo prihodnji UI modeli enako zmogljivi in raznoliki, če se uporabniki množično odločijo za umik svojih podatkov? Odgovor na to vprašanje bo določil smer razvoja na stičišču zasebnosti in tehnološkega napredka.

