Leta 2018 je Google izstopil iz vojaškega projekta Maven, potem ko so zaposleni množično protestirali proti sodelovanju pri razvoju umetne inteligence za prepoznavanje objektov na posnetkih ameriških dronov. Podobna vprašanja se pojavljajo ob vsakem novem sodelovanju med tehnološkimi podjetji in vojaškimi organi. **Vrednost pogodb med ameriškim obrambnim ministrstvom in tehnološkimi velikani presega več milijard dolarjev letno**, zaradi česar se številna podjetja, kot so Microsoft, Amazon in Palantir, intenzivno potegujejo za partnerstva na tem področju.
Konkreti primeri sodelovanj in burne reakcije zaposlenih
Podjetje Palantir je leta 2023 podpisalo pogodbo z ameriškim obrambnim ministrstvom v vrednosti 250 milijonov dolarjev za razvoj umetne inteligence, ki pomaga pri analiziranju velike količine vojaških podatkov. Microsoft je leta 2021 pridobil pogodbo za dobavo AR očal in programske opreme za vojaško usposabljanje, vredno več kot 20 milijard dolarjev. Amazon je znan po pogodbah z ameriškimi obveščevalnimi agencijami, kjer so njihove storitve v oblaku ključne za shranjevanje in obdelavo občutljivih podatkov.
**Protesti zaposlenih so postali pogosta spremljevalka takšnih pogodb.** Pri Googlu je več kot 4000 zaposlenih podpisalo odprto pismo, v katerem so nasprotovali sodelovanju s Pentagonom. Podobno so se oglasili tudi zaposleni v Microsoftu, ki so v javnosti opozorili na nevarnosti razvoja tehnologije za vojaške namene. Notranji konflikti pogosto vodijo do odhodov ključnih sodelavcev ali sprememb v strategijah podjetij, nekatera podjetja pa so bila prisiljena sprejeti strožje notranje etične kodekse.
Odzivi javnosti in organizacij za človekove pravice so v takih primerih zelo kritični. Kritiki opozarjajo, da bi umetna inteligenca v napačnih rokah lahko prispevala k razvoju avtonomnih orožij ali množičnemu nadzoru. Številni raziskovalci opozarjajo na pomanjkanje transparentnosti in nevarnosti zlorabe podatkov, posebej ob dejstvu, da so AI sistemi pogosto netransparentni in nepredvidljivi.
Globalni trendi, geopolitične razmere in etični izzivi
Podobni trendi so prisotni tudi v Evropi in Aziji. Evropska unija je v zadnjih letih okrepila razpravo o uporabi umetne inteligence v obrambne namene in sprejela strožja pravila za razvoj AI s posebnim poudarkom na zakonodaji proti avtonomnemu orožju. Nemčija in Francija sta v preteklosti že napovedali skupne projekte razvoja obrambne umetne inteligence, medtem ko Kitajska in Rusija intenzivno vlagata v napredne vojaške AI sisteme, s čimer še povečujeta globalno tekmo na tem področju.
Za manjše države, kot je Slovenija, se odpira vprašanje, kako naj se vključijo v regulacijo in uporabo takšnih tehnologij. **Mednarodne organizacije opozarjajo na potrebo po globalnih dogovorih** o uporabi umetne inteligence za vojaške namene in na nevarnosti, da bi manjše države ostale brez vpliva na ključna pravila digitalne varnosti v prihodnosti. EU si prizadeva za oblikovanje skupnih standardov, ki bi omejevali uporabo AI v napadalne namene in spodbujali razvoj rešitev, usmerjenih v obrambo in zaščito prebivalstva.
Eden največjih izzivov ostaja etična odgovornost podjetij in držav. Uvedba avtonomnih sistemov odpira dileme glede odgovornosti za odločitve, ki jih sprejme umetna inteligenca. Prihodnost razvoja AI na področju varnosti bo zahtevala več sodelovanja med regulatorji, znanstveniki, podjetji ter civilno družbo. Le celovit pristop lahko zagotovi, da bo napredek na področju umetne inteligence potekal v skladu z načeli varnosti, človekovih pravic in družbene odgovornosti.
Vprašanje prihodnosti razvoja umetne inteligence za vojaške namene ostaja odprto in nujno zahteva javno razpravo. Balansiranje med inovacijami in etiko bo odločilno vplivalo na to, kakšno vlogo bodo imele nove tehnologije v sodobni družbi in geopolitiki.
