Več let po tem, ko je Elon Musk kot soustanovitelj zapustil OpenAI zaradi različnih pogledov na prihodnost umetne inteligence, se je znašel na sodišču, kjer ga OpenAI toži zaradi domnevne zlorabe njihove tehnologije. Musk, ki se je aprila 2026 moral zagovarjati pred sodiščem v San Franciscu, zdaj vodil podjetje xAI, je pričal, da je bil njihov jezikovni model Grok razvit na podlagi javno dostopnih virov, medtem ko OpenAI trdi, da je šlo za nedovoljeno uporabo njihovih zaščitenih modelov. Ta pravni spor razgalja napetosti na področju razvoja umetne inteligence in odpira vprašanja o mejah odprtosti, inovacij ter lastništva v času hitrega tehničnega napredka.
Specifika spora: licenciranje, zgodovina in pravni okvir
OpenAI je tožbo vložil marca 2026, v kateri navaja, da je xAI pri razvoju Groka uporabil modele in podatke, ki jih pokrivajo določene licence, predvsem tiste, ki omejujejo komercialno uporabo ali zahtevajo pripis izvoru. Podjetje izpostavlja, da so bili ključni deli modela GPT-4 uporabljeni brez dovoljenja, s čimer naj bi xAI kršil določene poglavitne pogoje uporabe. Musk je na drugi strani poudaril, da so vsa izhodišča Groka nastala iz odprto dostopnih virov in da ekipa ni uporabljala nikakršnih notranjih ali zaprtih različic OpenAI modelov.
Spor med podjetjema ima dodatno težo tudi zaradi Muskovih osebnih vezi z OpenAI. Kot soustanovitelj je imel pomemben vpliv na začetne razvojne smernice podjetja, vključno z idejo popolne odprtosti. Leta 2018 je zapustil podjetje zaradi nesoglasij glede strateške usmeritve in poslovnega modela ter se kasneje začel osredotočati na lastni razvoj umetne inteligence. Paradoks trenutne situacije je v tem, da nekdanji zagovornik odprtosti zdaj vodi podjetje, ki se sooča z obtožbami o kršenju pravic iz “odprte” kode.
Pravni okvir tovrstnih tožb temelji predvsem na avtorskih pravicah, pogodbenih omejitvah licenc (kot so MIT, Apache ali komercialne licence) in razlagi pojma poštene uporabe. Razlika med javno dostopnimi podatki (npr. prosto besedilo s spleta) ter javno dostopno kodo in modeli (ki so lahko licenčno omejeni) pogosto ni povsem jasna. Za industrijo ni nepomembno, ali so bili za treniranje uporabljenih modelov spoštovani pogoji, kot so navajanje avtorjev, omejitve distribucije ali prepoved komercialne uporabe brez soglasja.
Analiza pravnih in etičnih dilem: vpliv na razvoj AI in prihodnost
Vprašanje, ali je uporaba odprtokodnih modelov za treniranje novih komercialnih rešitev dopustna, ni le pravno, temveč predvsem etično in strateško. Mnogi pravni strokovnjaki s področja intelektualne lastnine opozarjajo, da se lahko zloraba odprtih modelov hitro sprevrže v “free-riding” pojav, kjer nova podjetja izkoriščajo delo skupnosti brez vračila ali spoštovanja pravil. Drugi na to gledajo kot na naravni del razvoja, ki spodbuja inovacije in konkurenčnost, če so spoštovane osnovne licenčne omejitve.
Posebno pomembna so vprašanja, kako razlikovati med “pošteno uporabo” podatkov in nedovoljeno reimplementacijo zaščitenih modelov. V ZDA sodna praksa šele nastaja, noben sodni precedens še ni jasno določil meja uporabe AI modelov v komercialne namene na podlagi odprtokodnih licenc. Regulatorji in investitorji spremljajo tožbo z zanimanjem, saj bi odločitev lahko vplivala na financiranje startupov, ki svojo rast načrtujejo na temelju odprtih modelov, ali na strategije velikih podjetij pri deljenju oziroma zaščiti lastnih tehnoloških rešitev.
V etičnem smislu debata sega še dlje. Lastništvo podatkov za treniranje, transparentnost metod razvoja in odgovornost za posledice umetne inteligence so odprta vprašanja, na katera industrija nima enoznačnega odgovora. Čeprav odprta koda predstavlja gonilno silo inovacij, se z rastjo komercialnega interesa povečuje tveganje za zlorabe in zapiranje ekosistema. Vprašanje, ali bo prav ta pravni spor pomenil začetek novega obdobja večje zaščite ali pa ohranil odprtost kot temelj razvoja umetne inteligence, ostaja odprto.
