Sredi marca je ameriško sodišče izdalo začasno odredbo, s katero je podjetju Anthropic omogočilo začasno zaustaviti izvajanje večmilijonske pogodbe med Ministrstvom za obrambo ZDA in konkurenčnim ponudnikom. Sporni razpis je obsegal razvoj in dobavo naprednih AI orodij za analizo podatkov in avtomatizacijo odločanja v podporo obrambnim nalogam. V ozadju je šlo za implementacijo sodobnih sistemov umetne inteligence, ki bi vojski omogočili hitrejše in bolj natančno obdelavo velikih količin podatkov ter podporo pri strateškem odločanju.
Podrobnosti razpisa in pravni izzivi
Razpis Ministrstva za obrambo je predvideval razvoj orodij za avtomatizirano obdelavo in analizo podatkov s pomočjo umetne inteligence, pri čemer so bila ključna merila varnost, zanesljivost in etična uporaba. Anthropic je kandidiral z lastnimi modeli generativne umetne inteligence, ki jih je razvijal za uporabo v varnostno občutljivih okoljih. Zaradi suma na nepravilnosti pri ocenjevanju ponudb in domnevno netransparentnih kriterijev izbire, je Anthropic vložil tožbo ter zahteval neodvisno presojo postopka.
Sodišče je 24. marca 2026 izdalo začasno odredbo, saj je pri pregledu dokumentacije zaznalo neskladja z določili ameriške zakonodaje o javnem naročanju, predvsem glede transparentnosti razpisnega postopka in zagotavljanja poštenih pogojev za vse ponudnike. Primer je postal pomemben pravni precedens, ker zadeva javno naročanje na področju umetne inteligence, kjer je regulativa pogosto v zaostanku za hitrim tehnološkim razvojem. Sodba izpostavlja potrebo po jasnejših pravilih pri izbiri ponudnikov AI rešitev za državne organe, še posebej pri občutljivih obrambnih projektih.
Pravna stroka opozarja, da bi lahko odločitev sodišča sprožila večje zahteve po transparentnosti in nadzoru v podobnih razpisih, kjer so v igri napredne tehnologije umetne inteligence. Takšna sodba bi lahko v prihodnje vplivala na oblikovanje novih smernic v javnem naročanju AI rešitev, saj zahteva jasnejše merila, javno dostopnost razpisne dokumentacije in neodvisno presojo ocenjevanja ponudb.
Vpliv na AI ekosistem in prihodnji razvoj
Primer Anthropic je sprožil burne odzive v tehnološki industriji. Več podjetij, kot so OpenAI, Cohere in Scale AI, je v odzivih poudarilo pomen poštenih pogojev za sodelovanje na razpisih, kjer lahko inovativna podjetja dejansko konkurirajo velikim tehnološkim korporacijam. Nekateri analitiki opozarjajo, da lahko nestrinjanja ali spori med podjetji in državnimi organi upočasnijo implementacijo ključnih AI rešitev na področju obrambe ter hkrati spodbujajo razpravo o etičnih standardih in varnosti uporabe umetne inteligence.
Zadeva je odprla vprašanja o tem, kdo določa standarde razvoja in koga država dejansko podpira pri razvoju strateško pomembnih AI tehnologij. Transparentnost in strožje zahteve pri razpisih naj bi povečali zaupanje tako med ponudniki kot v širši javnosti, ki je vse bolj pozorna na etične vidike uporabe umetne inteligence v državnih projektih. Po mnenju pravnih svetovalcev in strokovnjakov za javna naročila lahko primer spodbudi posodobitev pravilnikov, tako da bodo upoštevali posebnosti AI rešitev in hitrost razvoja v tem sektorju.
Sodna odredba je bila izdana 24. marca 2026, naslednji korak pa je obravnava glavne tožbe, kjer bo sodišče v prihodnjih mesecih odločalo o (ne)veljavnosti celotnega razpisnega postopka. Ministrstvo za obrambo je napovedalo možnost pritožbe, zato se pričakuje pravna bitka, ki bi lahko trajala več mesecev. Končna odločitev bo pomembno vplivala na prihodnjo prakso javnega naročanja visoko tehnoloških rešitev ter določila, kako se bodo v prihodnje sklepale pogodbe za razvoj umetne inteligence za državo.
