Ameriški predsednik je po **odmevnem sporu med Pentagonom in podjetjem Anthropic** izdal ukaz, da morajo vse zvezne agencije **prenehati uporabljati rešitve umetne inteligence, ki jih zagotavlja podjetje Anthropic**. Odločitev je sledila seriji incidentov in razprav, v katerih so sodelovali upravni odbori ključnih vladnih uradov, strokovnjaki za nacionalno varnost ter svetovalci za kibernetsko varnost. Prepoved ima neposredne posledice za uporabo naprednih AI storitev, kot so **obdelava naravnega jezika, napredna analiza podatkov, sistemi za računalniški vid ter avtonomni obrambni algoritmi**, ki so jih številne agencije uvajale v zadnjih letih.
Spor med Pentagonom in podjetjem Anthropic
Jedro spora med Pentagonom in podjetjem Anthropic je izviralo iz **vprašanj glede nadzora nad občutljivimi podatki ter transparentnosti delovanja umetne inteligence**. Zagovorniki varnostnih praks v obrambnem sistemu so opozarjali na tveganja glede **lastništva in shranjevanja podatkov**, saj bi lahko zunanji ponudnik pridobil dostop do podatkov, ki so ključni za nacionalno varnost. Poleg tega so bile izražene skrbi zaradi **uporabe avtonomnih sistemov v vojaških okoljih brez človeškega nadzora**, kar odpira vprašanja glede etičnih standardov in odgovornosti pri morebitni uporabi smrtonosne avtonomije.
V razpravah je bila posebej izpostavljena tudi **možnost pristranskosti algoritmov** in s tem povezana nevarnost, da bi lahko AI odločitve vplivale na varnostna vprašanja brez ustreznega nadzora. Kibernetska varnost je predstavljala dodatni razlog za prekinitev sodelovanja, saj so analitiki Ministrstva za obrambo opozorili na možnost **uhajanja ali zlorabe tajnih podatkov** v primeru napada na ponudnikovo infrastrukturo.
Po podatkih iz uradnih zapisov, ki jih je objavil Odbor za nacionalno varnost, so bili prekinjeni ali začasno zaustavljeni projekti na področju **analize satelitskih posnetkov**, **avtomatizirane obdelave poročil obveščevalnih služb** in **napovedne analitike za logistične operacije**. Navodilo za prekinitev sodelovanja z Anthropic je izdal Urad za tehnološko varnost po posvetovanju s svetovalci za etiko umetne inteligence in kibernetsko zaščito.
Širše posledice in prihodnost ameriške AI strategije
Za ameriško strategijo na področju umetne inteligence ima ta prepoved **daljnosežne posledice**. Analitiki opozarjajo, da se s premikom k razvoju AI rešitev znotraj državnih institucij zmanjšuje odvisnost od zasebnih tehnoloških podjetij. Nekateri ocenjujejo, da to lahko vodi v **upočasnitev inovacij**, saj so ravno odprti projekti in sodelovanje s podjetji, kot je Anthropic, doslej omogočali hiter razvoj in prenos znanja. Po drugi strani pa poteza pomeni korak k **večji suverenosti nad razvojem kritične tehnologije** in zmanjševanju tveganj, povezanih z varnostjo in zasebnostjo podatkov.
Prepoved lahko vpliva tudi na **pretok talentov med zasebnim in javnim sektorjem**. Več projektov, ki so jih razvijali zunanji AI strokovnjaki, bo zahtevalo preusmeritev kadrov oziroma večje vlaganje v izobraževanje in razvoj lastnih ekip v zveznih uradih. To bi lahko povzročilo t. i. “brain drain” iz podjetij, ki so doslej sodelovala z državo, obenem pa okrepi konkurenčnost malih, specializiranih podjetij, ki se lažje prilagajajo strogim varnostnim zahtevam.
Na globalni ravni bo odločitev ZDA najverjetneje vplivala na **nove standarde varnosti in regulacije umetne inteligence**. Države, ki sledijo ameriškim smernicam, bodo morale prilagoditi svoje zahteve glede sodelovanja s ponudniki AI storitev ter okrepiti nadzor nad prenosom in obdelavo podatkov. Analitiki iz inštituta Future of Privacy Foundation ugotavljajo, da se s tem povečuje pritisk na industrijo, da zagotovi bolj transparentne in varne AI rešitve, hkrati pa obstaja nevarnost, da bodo inovativnost, odprtost in globalna interoperabilnost AI ekosistema v prihodnje omejene.
