Kalifornija je z nedavno sprejetim zakonom AI Accountability and Safety Act (Assembly Bill 331) postavila nova pravila za razvoj in uporabo naprednih sistemov umetne inteligence. Zakonske določbe predvidevajo obvezno oceno tveganj za tiste razvijalce AI, katerih modeli bi lahko vplivali na varnost, gospodarstvo ali temeljne pravice državljanov. Zakon zahteva, da podjetja izvajajo redna varnostna testiranja, pripravijo poročila o možnih zlorabah (kot so deepfake vsebine ali diskriminatorni algoritmi), ter hranijo varnostno dokumentacijo in dokaze o skladnosti. Velik poudarek je na zaščiti pred manipulacijo informacij, kar vključuje tudi obveznost preverjanja javno dostopnih generativnih AI orodij, ki bi lahko ustvarjala neresnične ali škodljive vsebine.
Kje se Kalifornija umešča v globalno AI regulacijo?
Zakon AI Accountability and Safety Act je prvi tovrstni poskus celovite AI regulacije v ZDA, vendar Kalifornija ni prva na svetu s takšnim pristopom. Evropska unija je že sprejela t. i. EU AI Act, ki na ravni EU uvaja razredno regulacijo in obvezne varnostne preglede za visokorizične AI sisteme. Kalifornijski zakon se od evropskega razlikuje predvsem po poudarku na samooceni tveganj in odgovornosti podjetij, medtem ko evropska zakonodaja postavlja dodatne zahteve glede neodvisnega nadzora in certificiranja. V ZDA so bile doslej prisotne predvsem neobvezne smernice, pilotni projekti ali sektorska pravila (npr. v zdravstvu ali avtonomni vožnji), medtem ko je Kalifornija s tem zakonom uvedla celovite, obvezne varnostne standarde na ravni celotne zvezne države.
Primerjava z EU AI Act razkriva ključne razlike v pristopih. Kalifornijski zakon daje večjo pristojnost podjetjem, da same ocenjujejo in upravljajo tveganja. Evropski zakon zahteva bolj sistemski nadzor in določene prepovedi za najbolj tvegane aplikacije umetne inteligence (na primer za socialno točkovanje ali biometrični nadzor v realnem času). Kljub razlikam pa oba regulatorja poudarjata pomen varnosti, transparentnosti in preprečevanja diskriminacije pri AI sistemih. Kalifornijski zakon zato predstavlja pomemben signal, da lahko tudi ameriška zakonodaja preseže zgolj priporočila in uvede konkretne varnostne standarde.
Na globalnem zemljevidu regulacije umetne inteligence Kalifornija z novim zakonom prevzema vlogo pionirja v ZDA, čeprav evropska unija še naprej ostaja vodilna glede strogosti in celovitosti AI regulacije. S tem se odpirajo vprašanja, ali bodo tudi druge ameriške zvezne države ali celo zvezna vlada sledile temu zgledu, in kako bo to vplivalo na globalno konkurenco ter premikanje inovacijskih centrov znotraj industrije umetne inteligence.
Kritične perspektive, vpliv na AI industrijo in relevantnost za Slovenijo in EU
Nova zakonodaja je sprožila različne odzive. Večja tehnološka podjetja zakon večinoma podpirajo, saj menijo, da jasna pravila povečujejo zaupanje javnosti in vlagateljev. Vendar so se manjši AI startupi že pritožili zaradi dodatnih birokratskih bremen. Poudarjajo, da obvezna poročila, testiranja in hranjenje obsežne dokumentacije predstavljajo izziv za podjetja z omejenimi viri, kar lahko zavira inovacije ali celo vodi do selitve razvojnih oddelkov drugam. Kritiki iz akademskih krogov opozarjajo, da zakon ne predvideva dovolj neodvisnega nadzora in kljub zahtevam po samoocenjevanju pušča vrata odprta za morebitne zlorabe ali prelaganje odgovornosti.
Med konkretnimi primeri, ki jih zakon posebej izpostavlja, so generativni AI sistemi za ustvarjanje multimedijskih vsebin (deepfakes), avtomatizirani sistemi za odločanje v zaposlovanju ali kreditiranju ter AI algoritmi, uporabljeni v nadzornih sistemih in sodni praksi. Zakon nalaga dodatne varnostne teste za generativne AI modele, ki bi lahko ustvarjali zavajajoče informacije, in zahteva preprečevanje diskriminacije na podlagi izida odločitev AI sistemov. Posebej je izpostavljena tudi obveznost dokumentiranja vseh sprememb modela in rednega obveščanja regulatorjev o zaznanih zlorabah ali incidentih.
Za slovenski in evropski kontekst je ključnega pomena primerjava in potencialno sodelovanje na področju standardizacije varnostnih postopkov. Kalifornijski zakon je bolj fleksibilen, saj daje več prostora inovativnim pristopom, vendar lahko odpre možnosti za lokalne različice varnostnih praks, kar bi bilo v EU težko sprejemljivo zaradi želje po enotni regulaciji. Za slovenska AI podjetja in regulatorje je pomembno spremljati razvoj v ZDA, saj lahko kalifornijski model ponudi izhodišča za bolj pragmatičen, a vseeno učinkovit okvir za varnost AI, z možnostjo hitrejšega prilagajanja tehnološkim spremembam. Hkrati pa EU ostaja zgled pri zagotavljanju neodvisnega nadzora in jasnih zavez glede temeljnih pravic, kar lahko navdihne tudi prihodnje spremembe v ZDA.