Ameriško ministrstvo za obrambo je podjetje Anthropic uradno uvrstilo na tako imenovani “Supply Chain Risk Management List”, ki ga vodi v okviru programa obrambne logistike (Defense Logistics Agency SCRM). Gre za seznam podjetij, ki naj bi zaradi svojih tehnologij ali lastniške strukture predstavljala povečano tveganje za varnost ameriške dobavne verige. V odločbi, objavljeni 4. marca 2026 kot del rednega letnega poročila o tveganjih v dobavnih verigah, ministrstvo izpostavlja konkretne skrbi glede varnosti umetne inteligence in potencialnega vpliva tujih akterjev na razvoj orodij podjetja Anthropic. V isti objavi je prvič natančneje navedlo, da je vir skrbi predvsem odprt dostop do naprednih jezikovnih modelov in možnosti vpliva investitorjev iz tujine v lastniški strukturi podjetja.

Poglobljena analiza razlogov za odločitev

V poročilu ministrstva za obrambo, ki spremlja seznam tveganih dobaviteljev, je Anthropic izpostavljen zaradi odprtokodnih funkcionalnosti jezikovnega modela Claude in dostopa do podatkov za usposabljanje modelov. Analitiki so posebej poudarili tveganje, da bi lahko dostop do teh tehnologij omogočil nepooblaščenim akterjem prenos znanja ali razvoj podobnih orodij zunaj nadzora ZDA. Ob tem v poročilu kot posebno tveganje omenjajo tudi možnost tujih investicij, pri čemer so izpostavljeni predvsem skladi in podjetja iz držav z večjim nadzorom nad tehnološkim sektorjem, kot je Kitajska. Zaskrbljenost izhaja iz strahu, da bi lahko ti akterji vplivali na razvojne prioritete ali uporabe modelov v smeri, ki ni v skladu z nacionalnimi interesi ZDA.

Ministrstvo v obrazložitvi navaja, da “ključni elementi” vključujejo dostop do podatkov, strojne opreme in programske opreme, ki se uporabljajo za razvoj velikih jezikovnih modelov. Konkretno omenjajo infrastrukturo v oblaku in povezave z ameriškimi vladnimi pogodbami za obdelavo občutljivih informacij. V poročilu piše, da je “potencialno tveganje razširjeno predvsem na pogodbe, kjer so vključeni podatki iz obrambnega sektorja ali kritične infrastrukture”.

Posledice za poslovanje podjetja so že vidne v omejitvah, ki veljajo za sodelovanje z državnim sektorjem. Po objavi je bilo nekaj pripravljalnih pogodb s strani podizvajalcev v obrambnem sektorju ustavljenih ali prestavljenih na kasnejši čas, dokler ne bodo izvedene dodatne varnostne ocene. To vključuje predvsem pogodbe, povezane z analitiko podatkov in avtomatizacijo administrativnih procesov za obrambne agencije.

Odziv podjetja Anthropic in širši kontekst geopolitičnih ter etičnih vprašanj

Podjetje Anthropic se je na odločitev ameriškega ministrstva odzvalo s sporočilom za javnost, v katerem poudarja, da zagotavlja najvišje standarde varnosti in zasebnosti pri razvoju umetne inteligence. V izjavi podjetje navaja, da “aktivno sodeluje z regulatorji in si prizadeva za transparentnost svojih tehnoloških procesov”. Po besedah podjetja so v zadnjih mesecih že implementirali dodatne varnostne protokole, kot so omejitve dostopa do občutljivih podatkov, redni notranji in zunanji pregledi ter vzpostavljeni mehanizmi za nadzor morebitnih tujih vplivov v lastniški strukturi.

Anthropic v javni komunikaciji poudarja, da je njihovo poslanstvo razvoj “varne in etične umetne inteligence”. Opozarjajo, da je njihova tehnologija zasnovana prav z mislijo na preprečevanje zlorab, saj so v razvoj vgradili večplastne varnostne mehanizme za zaznavanje in preprečevanje škodljivih izhodov modela. Ob tem izražajo pripravljenost na sodelovanje z vladnimi organi pri dodatnih varnostnih ocenah. Omenjajo tudi, da podjetje ni neposredno povezano s projekti ali tehnologijami, ki bi omogočali neposreden dostop do občutljivih informacij ameriške vlade brez ustreznih dovoljenj in nadzorov.

Primer Anthropic se umešča v širši kontekst zaostrovanja nadzora nad razvojem umetne inteligence v ZDA in globalno. ZDA v zadnjih letih uvajajo številne ukrepe za omejevanje dostopa do naprednih tehnologij, predvsem zaradi strahu pred tehnološkimi transferji v tujino in s tem povezanim vplivom na nacionalno varnost. Primer je pomemben tudi zaradi dejstva, da so podjetja, kot sta OpenAI in Google DeepMind, trenutno pod manjšim regulatornim pritiskom, saj imajo večji nadzor nad svojo lastniško strukturo ter omejene stike z vlagatelji iz držav z večjim geopolitičnim tveganjem. S tem odločitev glede Anthropica nakazuje, da bodo regulatorji v prihodnje še bolj pozorni na povezovanje varnosti, lastniške strukture in tehnološke odprtosti v celotnem sektorju umetne inteligence.

Ustanovitelj SEOS AI, predavatelj in svetovalec o uporabi umetne inteligence v podjetjih.

Leave A Reply

Exit mobile version