Sredi marca 2024 je ameriško zvezno sodišče razkrilo korespondenco med podjetjem Anthropic in ameriškim obrambnim ministrstvom (Pentagonom), iz katere izhaja, da so bile njihove pozicije glede sodelovanja skoraj usklajene, tik po tem ko je tedanji predsednik Donald Trump v javnosti napovedal prekinitev njihovega odnosa. Dokumentacija, ki je del sodnega spora glede pogodb o umetni inteligenci, razkriva doslej neznane podrobnosti o dinamiki med tehnološkimi podjetji in ameriškimi državnimi organi na področju razvoja naprednih jezikovnih modelov.
Podrobnosti sodne dokumentacije in vloga akterjev
Sodna dokumentacija, razkrita 18. marca 2024 na zveznem sodišču v Washingtonu, vključuje elektronsko korespondenco med vodilnimi pri podjetju Anthropic in predstavniki Pentagona. Ključno sporočilo, poslano le šest dni po Trumpovi javni izjavi o koncu odnosa, razkriva, da je Pentagon ocenil, da so z Anthropicom “skoraj usklajeni” glede pogojev in načina sodelovanja na projektih umetne inteligence. Razkrite informacije kažejo, da politične izjave niso vedno izražale dejanskega stanja v komunikaciji med partnerji.
V dokumentaciji so jasno navedena imena glavnih akterjev – poleg izvršnega direktorja podjetja Anthropic, Daria Amodeia, in visokih uradnikov Pentagona tudi odvetniki, ki so sodelovali v procesu. Sodna razprava se nanaša na pogajanja o pogodbi, ki bi Anthropicu omogočila svetovanje in razvoj modelov umetne inteligence za varnostne potrebe ameriške vojske. V dokumentih je razvidno, da so bile največje ovire pravna jamstva glede uporabe modelov na konfliktnih območjih ter zaščita civilnih podatkov.
Pomembno vlogo je imela tudi časovnica dogodkov. Medtem ko je ameriška administracija v javnosti zavzela zelo kritično držo do sodelovanja z zasebnimi razvijalci umetne inteligence, so v ozadju potekali tehnični pogovori o možnih prilagoditvah pogodb. Posredovani dokazi kažejo na napet preplet političnih odločitev in tehnološkega dialoga.
Vpliv primera na razvoj umetne inteligence v varnostnem sektorju
Primer razkriva specifične izzive, s katerimi se soočajo podjetja, ki razvijajo napredne modele umetne inteligence, ko sodelujejo z državnimi institucijami. Anthropic se je znašel v položaju, kjer mora tehtati med komercialnimi priložnostmi sodelovanja z vojsko in javnim ugledom podjetja, ki sledi strogi etični politiki razvoja AI. Notranja dokumentacija izrecno omenja dilemo glede morebitne uporabe modela Claude na vojaških projektih, kar je v podjetju sprožilo razprave o omejitvah licenčnih pogojev.
Primer Anthropic in Pentagon je postal tudi ogledalo za druga velika podjetja na področju umetne inteligence, kot sta Google in Microsoft. Tudi ti akterji so bili v preteklosti pod pritiskom javnosti in zaposlenih zaradi pogodb z vladnimi agencijami, zlasti na področju obrambe. Dogajanje v ZDA vpliva na globalne smernice glede nadzora uporabe umetne inteligence v varnostne namene. Številni strokovnjaki opozarjajo na pravno in etično odgovornost razvijalcev, ki morajo zagotoviti, da njihovi modeli ne bodo zlorabljeni v vojaških operacijah.
Sodni dokumenti, ki so bili zdaj prvič javno dostopni, izpostavljajo odprta vprašanja glede regulacije in transparentnosti uporabe umetne inteligence v javnih in zasebnih sektorjih. Primer kaže, da bo prihodnost sodelovanja med visokotehnološkimi podjetji in vladnimi ustanovami zahtevnejša, z večjim poudarkom na odgovornosti, transparentnosti in etičnih standardih. Razkritja postavljajo nova vprašanja o tem, kako daleč so podjetja pripravljena iti v sodelovanju z državo in kako to vpliva na razvoj in uporabo umetne inteligence v prihodnosti.
