OpenAI je napovedal načrtovane spremembe, s katerimi želi izboljšati varnost in nadzor pri pogovorih z umetno inteligenco. Podjetje razvija nov pristop za obravnavo občutljivih vsebin in pripravlja nadgradnjo sistema starševskih kontrol, ki bodo zagotovile večjo zaščito najmlajših uporabnikov. Po navedbah portala TechCrunch OpenAI uvaja možnost, da bo občutljivejše teme reševal naprednejši model, ki ga v podjetju razvijajo kot naslednjo generacijo GPT.
Usmerjanje zahtevnih pogovorov na napredni model
OpenAI namerava v prihodnosti za razprave o občutljivih temah uporabiti naprednejšo različico svojega jezikovnega modela. Po informacijah TechCruncha podjetje razvija model, ki naj bi bolje prepoznal in ustrezno obravnaval vsebine z večjim tveganjem za uporabnike. Čeprav podrobnosti o delovanju novega sistema in imenu modela (GPT-5) še niso uradno potrjene, je v izjavah podjetja razbrati, da gre za pomembno nadgradnjo njihove varnostne politike.
Poseben poudarek namenjajo izboljšavi algoritmov, ki omogočajo zaznavanje občutljivih pogovorov. Nov sistem naj bi v takih primerih uporabnika obvestil ter mu omogočil nadaljevanje pogovora z naprednejšim modelom, ki ima strožje varnostne filtre in jasnejša pravila glede neprimernih vsebin. OpenAI tako želi zmanjšati možnosti za napačne ali zavajajoče odgovore pri zapletenih temah.
Po besedah predstavnikov podjetja gre za odgovor na zahteve uporabnikov in regulatorjev po večji odgovornosti na področju umetne inteligence. Vzporedno s tem ostaja odprto vprašanje, kakšne bodo posledice za uporabniško izkušnjo ter kako se bo novi model primerjal z varnostnimi mehanizmi konkurentov, kot sta Google in Anthropic. Zaenkrat OpenAI ni razkril natančnih tehničnih podrobnosti ali roka uvedbe sprememb.
Okrepljeni nadzor za družinsko uporabo
Skladno s prizadevanji za bolj varno digitalno okolje OpenAI pripravlja tudi nove starševske kontrole za zaščito otrok. Po poročanju TechCruncha bodo starši lahko natančneje nastavili omejitve glede vrst pogovorov, do katerih imajo njihovi otroci dostop. Sistem naj bi omogočil blokado določenih tem ali funkcij, spremljanje zgodovine interakcij in obveščanje o zaznanih tveganjih.
Nova orodja naj bi bila zasnovana tako, da bi omogočila večjo prilagodljivost in preglednost. Starši bodo lahko spremljali čas, ki ga otroci preživijo v pogovoru z umetno inteligenco, ter prilagodili dostop do posameznih funkcij, kar naj bi znatno zmanjšalo tveganje za izpostavljenost neprimernim vsebinam. OpenAI želi s tem okrepiti zaupanje v uporabo svojih rešitev znotraj družin.
Uvedba okrepljenih starševskih kontrol je v skladu z globalnimi trendi povečanja odgovornosti tehnoloških podjetij na področju zaščite otrok in mladostnikov. Tudi druga podjetja, kot sta Microsoft in Apple, v zadnjih letih razvijajo podobne mehanizme, s katerimi poskušajo zajeziti tveganja, povezana z digitalnimi vsebinami. OpenAI s temi ukrepi sledi cilju, da zgradi varnejše in bolj zaupanja vredno okolje za uporabnike vseh starosti.
Vir: TechCrunch

