OpenAI po napovedih pripravlja podrobnejše možnosti nadzora nad uporabo avtorskih vsebin za treniranje svojih modelov umetne inteligence, kot je Sora. Novi sistem naj bi ustvarjalcem omogočal jasen in natančen nadzor nad tem, kako in v kakšnem obsegu so njihova dela uporabljena kot vhodni podatki za razvoj umetne inteligence. Pobuda prihaja v času, ko so vprašanja avtorskih pravic v središču pravnih in etičnih razprav v celotni industriji umetne inteligence.
Poteza v širšem kontekstu industrije in pravnih izzivov
Pri OpenAI z napovedano novostjo sledijo naraščajočim pritiskom ustvarjalcev, založnikov in zakonodajalcev, ki od AI podjetij zahtevajo več transparentnosti ter nadzora nad uporabo avtorskih del. Podobne izzive skušajo nasloviti tudi drugi vodilni akterji v industriji. Google z modelom Gemini in družba Stability AI napovedujeta bolj granularne nastavitve za umetnike in založnike, čeprav njihovi mehanizmi še niso tako podrobno predstavljeni. Midjourney prav tako razvija opcije, ki ustvarjalcem omogočajo omejitve pri ponovni uporabi njihovih vsebin.
Ozadje teh ukrepov so številne skupinske tožbe umetnikov, fotografov in založnikov proti največjim AI družbam zaradi nerazjasnjenih praks zbiranja podatkov za učenje modelov. Pobuda OpenAI za bolj granularen nadzor ni le odziv na sistemske izzive, temveč tudi odgovor na sodne postopke ter na zahteve evropske in ameriške zakonodaje po večji zaščiti ustvarjalcev. Poteza je pomembna, saj nakazuje usmeritev v proaktivno transparentnost, čeprav je deloma tudi odziv na pritiske s trga in odločevalcev.
V celotni industriji so napovedani ukrepi razumljeni kot iskanje ravnovesja med interesom podjetij po dostopu do velike količine podatkov in pravico ustvarjalcev do nadzora nad svojimi deli. Številni opazovalci opozarjajo, da bo implementacija teh orodij zahtevala nenehno prilagajanje in odpravo pomanjkljivosti.
Podrobnosti sistema, omejitve in vpliv na ustvarjalce
Napovedani sistem OpenAI je usmerjen v nadzor nad vhodnimi podatki – torej nad vsebinami, ki jih podjetje uporablja za treniranje svojih modelov. Ustvarjalci bodo lahko določili, ali so njihove slike, besedila ali druga dela lahko del učnih podatkovnih zbirk za Soro ali druge modele. To pomeni, da bodo lahko nadzorovali pravico do uporabe svojih avtorskih del pri izgradnji novih AI orodij. Novi sistem zajema predvsem input podatke, ne pa tudi avtorskih pravic nad izhodi, ki jih Sora generira za uporabnike.
Za primer: fotograf bo lahko izrecno prepovedal uporabo svojih fotografij za treniranje Sore, a jih hkrati dovolil za prikazovanje v spletnih galerijah ali za druge nekomercialne namene. Predvidena so različna dovoljenja, kot na primer možnost izključitve za komercialno uporabo, omejitev na določene tipe modelov ali popolna prepoved vključitve v zbirke podatkov za AI. Sistem naj bi temeljil na preprostih uporabniških vmesnikih, kjer ustvarjalec izbere želeni scenarij in ga potrdi.
Kljub obljubam o transparentnosti ostajajo odprta vprašanja, ali bodo nastavitve res dovolj jasne in dostopne za povprečnega uporabnika. Obstoječe vsebine, ki so jih modeli že uporabili za učenje, so siva cona, saj OpenAI še ni razjasnil, ali bo omogočen retroaktiven izbris iz učnih podatkovnih zbirk. Prav tako ni popolnoma razjasnjeno, kako bo podjetje preprečevalo zlorabe ali obvladovalo morebitne tehnične in pravne izzive pri izvajanju novih pravil.
Pričakovani vpliv, kompromisi in prihodnost za ustvarjalce
Za ustvarjalce, kot so umetniki, fotografi, pisatelji in založniki, takšen sistem prinaša večjo možnost nadzora nad razpoložljivostjo njihovih del za treniranje umetne inteligence. Uvedba granularnega nadzora lahko pomeni večjo zaščito avtorskih pravic, a hkrati zahteva, da se ustvarjalci seznanijo z novimi orodji in sprejmejo določene kompromise. Ustvarjalci se bodo morali odločiti, ali želijo svoja dela popolnoma umakniti iz učnih podatkovnih zbirk ali pod določenimi pogoji dovoliti njihovo uporabo, kar lahko vpliva na vidnost in širjenje njihovih del.
V kreativni industriji so mnenja glede uvedbe teh orodij deljena. Nekateri ocenjujejo, da bo boljši nadzor spodbudil več avtorjev k sodelovanju z AI podjetji in omogočil razvoj novih modelov na bolj transparenten način. Drugi opozarjajo, da bodo strožji pogoji zmanjšali količino razpoložljivih podatkov, kar lahko vpliva na kakovost in raznolikost rezultatov, ki jih ponujajo AI modeli.
Na dolgi rok se pričakuje, da bodo tovrstni sistemi postali industrijski standard. Vendar ostaja odprto vprašanje, ali bodo pravila res učinkovita tudi v praksi in ali bo implementacija teh rešitev dovolj robustna, da bo zadovoljila tako potrebe ustvarjalcev kot zahteve po napredku umetne inteligence. O nadaljnjem uspehu podobnih ukrepov bodo odločali predvsem odzivi uporabnikov, zakonodajalcev in razvoj tehnoloških rešitev v naslednjih letih.

