FTC je sprožil obsežno preiskavo največjih ponudnikov klepetalnih robotov z umetno inteligenco, med katerimi so Meta, OpenAI, Character.AI in Replika. Ameriški regulator se posebej osredotoča na primere, ko so AI chatboti podajali zavajajoče ali škodljive odgovore, uporabniške podatke posredovali tretjim osebam brez privolitve ali pa slabo zaščitili otroke pred neprimernimi vsebinami. FTC je za več podjetij zahteval interne dokumente, ki razkrivajo, kako podjetja upravljajo varnost in zasebnost svojih uporabnikov, ter kako testirajo in nadzirajo delovanje svojih chatbotov. Uradno sporočilo FTC navaja, da so v preiskavi tudi namerno ustvarjene lažne osebnosti ter tvegani nasveti, ki jih podajajo AI orodja, kar lahko neposredno ogroža potrošnike.
Pod drobnogledom Meta, OpenAI in drugi: konkretni primeri in odzivi strokovnjakov
FTC je posebej izpostavila primere, ko so AI chatboti uporabnikom dajali napačne informacije o zdravju in financah, ali celo podajali nasvete, nevarne za otroke. Pri OpenAI so preiskovalci izpostavili pritožbe, da je njihov chatbot uporabnikom predlagal sporne rešitve za čustvene stiske in ni ustrezno filtriral občutljivih vsebin za mladoletne. V primeru Mete se preiskava osredotoča na možnost izpostavljanja osebnih podatkov uporabnikov zunanjim razvijalcem, kar je sprožilo skrbi o zlorabi zasebnosti. Pod drobnogledom so tudi Character.AI, kjer so prijavljene težave z zavajanjem in neprimerno vsebino, ter Replika, ki je bila deležna kritik, ker naj bi omogočala preveč realistične pogovore z mladostniki brez zadostne zaščite.
Strokovnjaki za varnost opozarjajo, da bi lahko preiskava bistveno vplivala na celoten trg AI chatbotov. Pravni strokovnjaki poudarjajo, da podjetja v ZDA pogosto niso zavezana k tako strogi zaščiti zasebnosti kot v EU, zato so ukrepi FTC ključnega pomena za postavitev novih standardov. Mnenja s področja umetne inteligence opozarjajo, da je hitro uvajanje novih funkcij brez ustreznega nadzora glavni razlog za nastanek številnih incidentov, ki jih zdaj raziskuje FTC. Podobne preiskave v drugih državah bi lahko sledile ameriškemu zgledu, s čimer bi se povečala globalna regulacija AI tehnologij.
FTC preučuje tudi vlogo algoritmov, ki stojijo za chatboti, ter preverja, ali podjetja izvajajo zadostne varnostne teste pred lansiranjem novih funkcij. Regulator je zahteval podrobne informacije o incidentih, kjer je bila ogrožena varnost otrok ali so bili osebni podatki uporabljeni brez dovoljenja. Ocenjuje se, da bi lahko rezultati preiskave vodili do zaostritve pogojev za razvoj in uporabo AI chatbotov v ZDA in širše.
Kaj pomeni preiskava FTC za slovenske razvijalce in uporabnike AI
Čeprav je preiskava FTC usmerjena na ameriška podjetja, ima lahko pomembne posledice tudi za slovenska podjetja, ki razvijajo ali vključujejo AI chatbot rešitve v svoje storitve. Podjetja s sedežem v Sloveniji, ki ponujajo aplikacije v ZDA ali sodelujejo z ameriškimi partnerji, bodo morala upoštevati zahteve glede varovanja podatkov in varnosti podobno kot ameriška podjetja. Slovenski razvijalci morajo biti posebej pozorni na zagotavljanje transparentnosti pri uporabi osebnih podatkov, saj bi morebitne kršitve lahko pomenile izgubo poslov ali sankcije pri sodelovanju z ameriškim trgom.
Slovenija ima sicer svojo zakonodajo na področju varovanja osebnih podatkov, ki temelji na Splošni uredbi o varstvu podatkov (GDPR). Ta je strožja od ameriških ureditev, zato slovenska podjetja že izvajajo višje standarde zaščite zasebnosti. Po mnenju pravnih strokovnjakov to slovenske razvijalce postavlja v boljši položaj pri vstopu na ameriški trg, saj so na stroge pogoje že pripravljeni. Kljub temu morajo slediti tudi posebnim zahtevam, ki jih bo morebiti uvedla FTC po zaključku preiskave.
Za slovenske uporabnike, ki posegajo po AI chatbotih tujih ponudnikov, preiskava prinaša možnost dodatnih zaščit in boljših informacij o načinu obdelave osebnih podatkov. FTC-jeva preiskava bi lahko spodbudila tudi slovenske regulatorje, da še bolj podrobno spremljajo uporabo umetne inteligence, predvsem na področjih, kjer je možen stik z otroki ali obdelava občutljivih podatkov.