Podjetje OpenAI je predstavilo nov varnostni sistem za ChatGPT, ki vključuje usmerjanje vsebine in starševski nadzor. Ta poteza prihaja v času, ko se stopnjujejo javne in regulatorne zahteve po večjem nadzoru nad umetno inteligenco, predvsem zaradi zaskrbljenosti glede vpliva na otroke in mladostnike. V zadnjem letu so se številni evropski regulatorji, vključno z italijanskim informacijskim pooblaščencem, odzivali na primere, kjer so bile AI aplikacije dostopne mladoletnikom brez ustreznih varnostnih mehanizmov. Razprave o etiki in varnosti AI so tako postale ključne za prihodnji razvoj platform, kot je ChatGPT.
Delovanje novih varnostnih funkcij in praktični primeri
OpenAI je uvedel sistem, ki v realnem času preverja pogovore in identificira vsebine, kot so izrazi sovražnega govora, opisovanje nasilja ali zahteve po občutljivih podatkih. Na primer, če otrok v pogovoru z aplikacijo omeni osebne podatke ali zastavi vprašanja o občutljivih temah, kot so droge ali samopoškodovanje, sistem te vnose samodejno prepozna in blokira ali preusmeri pogovor na nevtralno temo. Prav tako lahko zazna poskuse izsiljevanja ali nagovarjanja k tveganemu vedenju.
Starševski nadzor omogoča skrbnikom nastavitev omejitev, recimo za desetletnega otroka lahko starš nastavi blokado pogovorov o določenih temah ali nastavi časovno omejitev, denimo največ 30 minut uporabe na dan. Če otrok poskuša preseči ta čas, ga sistem avtomatsko odjavi iz aplikacije. Nastavitve se lahko prilagajajo glede na starostno skupino in individualne potrebe otrok.
Takšna rešitev olajša nadzor nad digitalno izkušnjo otrok, kar je še posebej pomembno v obdobju, ko se vse več otroških vsebin seli v digitalno okolje. Podobni ukrepi so že vzpostavljeni pri platformah, kot sta YouTube Kids in TikTok, kjer so varnostni filtri namenjeni zaščiti mladoletnikov pred neprimerno ali nevarno vsebino. OpenAI s tem sistemom vstopa v krog ponudnikov, ki varnost postavljajo v ospredje, vendar za razliko od nekaterih konkurentov zagotavlja napreden nadzor tudi v pogovornih AI storitvah.
Kritični izzivi, industrijski kontekst in prihodnji razvoj
Implementacija novih varnostnih sistemov prinaša tudi določene izzive. Eden od glavnih izzivov je tveganje prekomernega filtriranja, kjer lahko sistem pomotoma blokira tudi neproblematične ali izobraževalne vsebine. Nasprotno pa lahko pride do t. i. “overlookinga”, kjer določene škodljive vsebine kljub vsem varovalom uidejo skozi filter. Pozorni je treba biti tudi na vprašanja zasebnosti, saj takšni sistemi za filtriranje pogosto zahtevajo obdelavo in analizo občutljivih podatkov o uporabnikih.
V primerjavi z obstoječimi rešitvami drugih ponudnikov, kot so Google, Meta ali ByteDance, se OpenAI s temi spremembami uvršča med vodiče na področju varnosti v generativni umetni inteligenci. Medtem ko so tradicionalne otroške platforme osredotočene na video in socialne vsebine, ChatGPT z novimi varnostnimi mehanizmi razširja to področje na interaktivno umetno inteligenco. V industriji se pojavlja vprašanje, ali bo ta sistem postal nov standard ali bo zgolj sledil obstoječim praksam.
Za uporabnike – tako starše kot otroke – novi ukrepi pomenijo lažji nadzor in večjo varnost, vendar tudi potencialno več omejitev pri uporabi. Dolgoročne implikacije bi lahko vplivale na večje zaupanje javnosti v uporabo AI v izobraževalne in družinske namene. V prihodnosti se pričakuje razvoj še bolj personaliziranih varnostnih nastavitev in integracija z drugimi nadzornimi orodji, kar bo omogočilo še bolj ciljno zaščito in večjo prilagodljivost uporabniške izkušnje.