Teksas preiskuje Meto in Character.AI zaradi zavajajočih AI klepetalnikov za duševno zdravje
V ameriški zvezni državi Teksas je generalni tožilec Ken Paxton sprožil preiskavo proti podjetjema Meta Platforms Inc. in Character.AI zaradi **domnevno zavajajočega oglaševanja AI klepetalnikov kot pripomočkov za duševno zdravje**. Preiskava odpira številna vprašanja o varnosti otrok, etiki ter zaščiti zasebnosti pri uporabi umetne inteligence v občutljivih življenjskih situacijah.
Zavajajoče prakse in konkretni primeri oglaševanja
Podjetji Meta in Character.AI sta v zadnjih mesecih na svojih platformah, kot so Facebook, Instagram in spletne strani za klepetanje, **oglaševali AI klepetalnike kot orodja za osebno rast, čustveno podporo in »terapevtski pogovor«**. Pri tem so pogosto uporabljene slike in slogani, ki vzbujajo zaupanje – na primer fotografije nasmejanih ljudi, objemi ali topli toni, skupaj z obljubami o pomoči pri tesnobi, stresu ali osamljenosti. V nekaterih primerih je bilo moč zaslediti tudi izjave, kot so »Pogovorite se z našim AI, ki vas posluša« ali »Najdite podporo v trenutkih stiske«.
Takšne obljube pri uporabnikih, še posebej mladih, lahko ustvarijo občutek, da gre za varno in strokovno podprto pomoč, čeprav klepetalniki dejansko niso usposobljeni ali licencirani za nudenje psihološke podpore. **Pomanjkanje jasnih opozoril** o dejanskih zmožnostih in omejitvah teh sistemov lahko vodi v nevarna pričakovanja in napačne odločitve v kriznih trenutkih.
Etična vprašanja in odgovornost podjetij
Uporaba AI klepetalnikov za podporo duševnemu zdravju odpira številna **etična vprašanja o odgovornosti tehnoloških podjetij**. Strokovnjaki za umetno inteligenco in psihologi opozarjajo, da bi morala podjetja jasno ločiti med informativno in terapevtsko vlogo svojih aplikacij. Uporabniki, še posebej otroci, težko razumejo razliko med prijaznim navideznim sogovornikom in dejanskim strokovnjakom, zato je nevarnost zlorabe zaupanja velika.
Na dolgi rok bi lahko takšno oglaševanje prispevalo k zmanjšanju zaupanja v pravo strokovno pomoč ter povečalo tveganje, da posamezniki v stiski ne poiščejo ustrezne podpore. **Podjetja nosijo pomembno odgovornost, da ne izkoriščajo ranljivosti ljudi za lastne poslovne cilje.**
Odziv podjetij Meta in Character.AI
V odgovor na obtožbe sta Meta in Character.AI poudarila, da sta **AI klepetalnika zasnovana predvsem za zabavo in izboljšanje uporabniške izkušnje**, ne pa kot nadomestek za strokovno zdravljenje ali svetovanje. Podjetji trdita, da v pogojih uporabe in na vmesnikih jasno opozarjata, da AI ne nadomešča psihologa ali terapevta. Prav tako zatrjujeta, da se trudita zaščititi zasebnost uporabnikov ter preprečiti morebitne zlorabe, a poudarjata, da tehnologija še ni popolna in da nenehno izboljšujeta varnostne mehanizme.
Širši trend regulacije AI in izzivi v zdravstvu
Preiskava v Teksasu je del širšega globalnega gibanja, kjer regulatorji vse bolj pozorno spremljajo uporabo umetne inteligence na občutljivih področjih, kot je duševno zdravje. V Evropski uniji že velja **Akt o umetni inteligenci (AI Act)**, ki med drugim prepoveduje uporabo AI za manipulacijo ranljivih posameznikov, kot so otroci, ali za zagotavljanje lažne zdravstvene podpore. Tudi Svetovna zdravstvena organizacija opozarja na nujnost jasnih pravil in nadzora pri uporabi digitalnih orodij v zdravstvu.
Ključni izzivi ostajajo **zagotavljanje transparentnosti, učinkovite zaščite osebnih podatkov in preprečevanje zlorab**. Mednarodne organizacije in državne oblasti se strinjajo, da hitrost razvoja umetne inteligence terja hiter in usklajen odziv zakonodajalcev.
Kaj lahko pričakujemo v prihodnje?
Generalni tožilec Ken Paxton je napovedal, da bo **zaščita otrok in ranljivih posameznikov pred izkoriščevalskimi praksami v digitalnem svetu** ostala ena ključnih prioritet. Preiskava v Teksasu bi lahko postavila precedens za nadaljnje ukrepanje v drugih zveznih državah in na mednarodni ravni. Hkrati pa primer odpira pomembno javno razpravo o vlogi in omejitvah umetne inteligence pri skrbi za duševno zdravje, kjer morajo odgovornost prevzeti tako razvijalci kot uporabniki.
