Državni tožilci iz več ameriških zveznih držav so v skupnem pismu javno opozorili na potencialne nevarnosti umetne inteligence za otroke. Njihova opozorila so namenjena predvsem podjetjem, kot je OpenAI, pa tudi drugim razvijalcem naprednih AI orodij, ki postajajo vse bolj prisotna v vsakdanjem življenju otrok. Poudarjajo, da se z razmahom AI pojavljajo tudi konkretne nevarnosti, povezane z duševnim zdravjem, spletno varnostjo in širjenjem lažnih informacij med mlajšimi uporabniki.
Konkretna tveganja AI za otroke
V pismu, ki so ga podpisali tožilci iz Kalifornije, New Yorka, Tennesseeja, Vermonta in več drugih držav, je izpostavljenih več primerov, kjer AI neposredno vpliva na otroke. Na eni strani se pojavlja zasvojenost z igrami, ki jih poganjajo napredni algoritmi umetne inteligence. Velika dostopnost personaliziranih AI chatbotov omogoča, da otroci preživijo ure in ure v pogovorih z navideznimi liki, kar lahko vodi do socialne izolacije in težav v duševnem zdravju.
Tehnologije, kot so algoritmi družbenih omrežij, lahko skozi prilagojene vsebine krepijo občutek nezadostnosti ali povzročajo anksioznost. Raziskava Pew Research Center je pokazala, da več kot 40 odstotkov najstnikov priznava, da so zaradi vsebin na družbenih omrežjih že občutili pritisk ali stres. Umetna inteligenca olajša tudi širjenje dezinformacij, saj lahko generira ponarejene slike, videe ali besedila, ki jih otroci pogosto ne znajo prepoznati kot lažne.
Državni tožilci so kot posebno tvegane označili tudi platforme, ki omogočajo ustvarjanje personaliziranih avatarjev in deepfake vsebin. Prek takšnih orodij lahko pride do zlorab, manipulacije ali spletnega ustrahovanja. V poročilu ameriške Komisije za varstvo otrok je bilo ugotovljeno, da se je število prijav incidentov, povezanih z AI generiranimi vsebinami, v zadnjem letu skoraj podvojilo.
Odgovornost podjetij in iskanje rešitev
Opozorila državnih tožilcev so naslovljena predvsem na podjetja, ki razvijajo in tržijo napredne AI rešitve. Od njih zahtevajo uvedbo učinkovitih varnostnih mehanizmov, kot so starostno preverjanje, omejevanje dostopa do določenih funkcij in proaktivno odstranjevanje neprimernih vsebin. Praksa nekaterih podjetij je že pokazala, da je mogoče s strožjim preverjanjem starosti in sodelovanjem s strokovnjaki za otroško varnost zmanjšati tveganja, povezana z uporabo AI.
Strokovnjaki za umetno inteligenco ter psihologi opozarjajo, da je poleg tehničnih rešitev pomembno tudi ozaveščanje staršev in otrok. Več šolskih svetovalcev že izvaja preventivne delavnice o prepoznavanju dezinformacij in varni uporabi spleta. Hkrati zagovarjajo uvedbo rednih posodobitev varnostnih protokolov, saj se tehnologije hitro spreminjajo in prinašajo nova tveganja.
Inštitucije, kot so ameriška Komisija za varstvo otrok in nevladne organizacije, pozivajo k večjemu sodelovanju med razvijalci, zakonodajalci in družinami. Poudarjajo tudi pomen izmenjave informacij o primerih zlorab in hitro ukrepanje ob zaznanih tveganjih. Državni tožilci napovedujejo, da bodo v prihodnje še bolj pozorno spremljali ravnanje podjetij ter po potrebi sprožili sodne postopke zoper tiste, ki ne izvajajo ustreznih zaščitnih ukrepov.