OpenAI je 4. junija 2024 sporočil, da začasno onemogoča dostop do video generatorja Sora zaradi ugotovljenih varnostnih tveganj. Odločitev sledi številnim opozorilom glede možnosti ustvarjanja prepričljivih deepfake videoposnetkov in širjenja dezinformacij, ki bi jih taka umetna inteligenca lahko omogočila. V istem tednu je ameriško sodišče v Kaliforniji ugodilo začasni odredbi proti podjetju Meta zaradi uporabe avtorsko zaščitenih vsebin pri treniranju njihovih AI modelov, kar predstavlja pomembno prelomnico v razpravi o regulaciji umetne inteligence.
OpenAI Sora in izzivi pregleda vsebine
Orodje Sora je že med preizkusnim obdobjem izzvalo številne etične in varnostne debate. Glavne skrbi se nanašajo na možnost ustvarjanja zelo realističnih videoposnetkov, ki jih je težko ločiti od resničnih. To odpira vrata zlorabam, kot so izdelava ponarejenih novic ali videoposnetkov znanih osebnosti brez njihove vednosti. Dodatno se je pri internih testiranjih pokazalo, da avtomatsko moderiranje vsebine še ni dovolj zanesljivo, kar povečuje tveganje za nenadzorovano širjenje neprimerne ali zavajajoče vsebine.
OpenAI je v izjavi poudaril, da bo Sora ostala zaprta za širšo javnost, dokler ne bo izveden dodaten tehnični in etični pregled. Poseben poudarek bodo namenili preverjanju, ali je mogoče dovolj učinkovito zaznati in preprečiti generiranje škodljivih vsebin, vključno z deepfake materiali in posnetki, ki kršijo pravice posameznikov. Podjetje tudi napoveduje sodelovanje z zunanjimi partnerji pri pripravi robustnih varnostnih protokolov.
Datum objave zaustavitve Sore, 4. junij 2024, je bil v javnosti pospremljen s številnimi odzivi tako iz vrst tehnološke industrije kot civilne družbe. Orodje je že v fazi testiranja pokazalo izjemne zmožnosti, a hkrati tudi sprožilo vprašanja o odgovornosti razvijalcev pri preprečevanju zlorab novih tehnologij. OpenAI tako nadaljuje s preverjanjem tveganj, preden bo Sora ponovno dostopna širši javnosti.
Meta in sodna odločba o uporabi avtorsko zaščitenih vsebin
Podjetje Meta se je 6. junija 2024 znašlo pod drobnogledom kalifornijskega sodišča, ki je izdalo začasno odredbo zaradi suma, da je Meta pri razvoju svojih AI modelov uporabila avtorsko zaščitene materiale brez dovoljenja imetnikov pravic. To vključuje uporabo besedil, slik in drugega avtorsko zaščitenega gradiva za treniranje modelov, brez predhodno zagotovljenih licenc ali soglasij.
Sodna odločba temelji na pritožbah večjih založnikov in umetnikov, ki trdijo, da način zbiranja in obdelave podatkov pri Meti ne spoštuje veljavne zakonodaje o intelektualni lastnini. Sodišče je z odločbo omejilo Meti nadaljnji razvoj določenih AI funkcionalnosti, dokler ne bo pojasnjeno, na kakšen način podjetje pridobiva in uporablja podatke za treniranje modelov. Za Meto to pomeni nujnost pregleda in prilagoditve internih praks pri uporabi zunanjih vsebin.
Odločitev kalifornijskega sodišča neposredno vpliva na sposobnost Mete, da ostane konkurenčna v AI segmentu, saj omejitve zavirajo uvajanje novih storitev. Hkrati odločba postavlja precedens tudi za druge tehnološke velikane, ki se pri razvoju svojih modelov zanašajo na množične nabore podatkov, pogosto brez ustreznih dovoljenj ali transparentnosti uporabe virov.
Širši pomen za industrijo umetne inteligence
Dogodki v povezavi z orodjem Sora ter sodni spor Mete poudarjajo nujnost jasnih pravil pri razvoju in uporabi umetne inteligence. Regulacija na področju AI postaja vse pomembnejša, saj se pojavljajo vprašanja o avtorskih pravicah, zasebnosti ter zaščiti pred zlorabami. Razvijalci, regulatorji in uporabniki so tako postavljeni pred izziv iskanja ravnotežja med inovacijami in zaščito javnega interesa.
Primer Sore kaže, kako pomembno je pravočasno odkrivanje in naslavljanje potencialnih tveganj že v razvojni fazi tehnologije. Začasna zaustavitev razvoja nakazuje previden in odgovoren pristop, ki bo verjetno vplival tudi na podobna orodja drugih ponudnikov. Hkrati pa dogajanje okrog Mete nakazuje, da brez ustreznih pravnih okvirov ni mogoče zagotoviti pravične uporabe podatkov in spoštovanja intelektualne lastnine.
Oba primera bosta verjetno spodbudila še intenzivnejšo razpravo med podjetji, zakonodajalci in širšo javnostjo o tem, kako zagotoviti, da bodo prihodnje rešitve na področju umetne inteligence varne, poštene in skladne z zakonodajo. Pričakovati je mogoče strožje zahteve glede transparentnosti, nadzora in odgovornosti razvijalcev AI tehnologij.
