Ameriško podjetje Anthropic je marca 2026 vložilo tožbo proti ameriškemu ministrstvu za obrambo, potem ko ga je to uvrstilo na seznam podjetij s povečanim tveganjem za dobavno verigo v okviru državnih tehnoloških projektov. Ministrstvo je uradno utemeljilo odločitev s skrbmi glede varnosti podatkov in domnevnih možnosti vpliva tujih akterjev na razvoj ali dobavo ključnih komponent umetne inteligence. Kljub večkratnim prošnjam za komentar so pri ministrstvu pojasnili, da podrobnosti ne bodo razkrivali zaradi občutljivosti zadeve. V dokumentaciji so se pojavili očitki o pomanjkljivem preverjanju izvorov programske opreme in strojnih delov, ki bi lahko izvirali iz tujine.
Časovnica dogodkov in odgovor podjetja Anthropic
Odločitev ministrstva je bila sprejeta 23. februarja 2026, Anthropic pa je odgovoril s tožbo že 7. marca istega leta. Ta zaporedje dogodkov sledi trendu vedno večje pozornosti ameriških oblasti do dobavnih verig tehnoloških podjetij, predvsem na področju umetne inteligence, kjer obstaja strah pred morebitnim vdorom ali zlorabo podatkov s strani tujih držav ali nepooblaščenih oseb. Podjetje Anthropic trdi, da ameriška vlada s svojim sklepom posega v njihove poslovne odnose in škoduje ugledu brez konkretnih dokazov o ogroženosti varnosti.
Anthropic poudarja, da je v zadnjih dveh letih pridobil certifikate za kibernetsko varnost, med njimi ISO/IEC 27001 in ameriški FedRAMP za oblačne storitve. Poleg notranjih varnostnih postopkov podjetje izvaja redne neodvisne revizije, penetracijska testiranja ter sodeluje s priznanimi strokovnjaki za odkrivanje ranljivosti v svojih AI sistemih. Podjetje je v sodnih aktih izpostavilo, da je večkrat prostovoljno sodelovalo z vladnimi agencijami pri preverjanju izvorne kode in izvora komponent.
Na očitke o možnem tujem vplivu se je Anthropic odzval z navedbo, da ima stroge protokole za preverjanje svojih partnerjev in dobaviteljev. Vsi pogodbeni sodelavci podjetja morajo opraviti varnostno preverjanje, uporabljajo se izključno strežniki in podatkovni centri na ozemlju ZDA. Kljub temu pa so predstavniki ministrstva za obrambo v internih dokumentih opozorili na možnost tveganj pri uporabi odprtokodne programske opreme, kjer ni vedno mogoče popolnoma slediti izvoru kode.
Širše posledice za AI industrijo in možni razpleti
Primer Anthropic odpira vprašanja o zaupanju v umetno inteligenco, ki jo razvijajo podjetja za državne in občutljive javne naročnike. Strokovnjaki za tehnološko pravo opozarjajo, da bi lahko odločitev ministrstva vodila do uvedbe strožjih postopkov akreditacije oziroma obveznega certificiranja za vse AI produkte, ki se uporabljajo v javnem sektorju. Vse več vlagateljev in končnih uporabnikov od podjetij zato pričakuje transparentnost glede dobaviteljske verige in izvorne kode.
Analitiki ocenjujejo, da bi morebiten uspeh podjetja Anthropic na sodišču pomenil jasen signal industriji, da so potrebni natančni postopki in uravnoteženo odločanje pri ocenjevanju tveganj, predvsem da ne pride do neutemeljenih izključitev pomembnih ponudnikov z državnih projektov. V primeru neuspeha pa bi lahko zvezne agencije poostrile nadzor in dodatno omejile možnost sodelovanja manjših inovativnih podjetij na področju umetne inteligence z državo. Za AI sektor kot celoto to pomeni več negotovosti pri dolgoročnem načrtovanju in investicijah v razvoj.
Strokovnjaki iz industrije opozarjajo, da podobni primeri v zadnjih letih niso redkost, vendar so redko prerasli v javne sodne postopke. V enem od preteklih primerov je bilo podjetje, ki se je ukvarjalo z biometrično identifikacijo, po večmesečni reviziji vendarle izbrisano s seznama rizičnih dobaviteljev po dodatnem preverjanju varnostnih praks. Potek sodnega spora bo pomembno vplival na oblikovanje prihodnjih standardov varnosti in preglednosti v svetu umetne inteligence ter razmerja med inovacijami in regulatornimi omejitvami v hitro razvijajoči se industriji.
