V ameriški zvezni državi Florida so oblasti sprožile preiskavo proti podjetju OpenAI zaradi incidenta, v katerem naj bi bil ChatGPT uporabljen v povezavi s streljanjem. Po navedbah floridskega generalnega državnega tožilca je v središču preiskave domnevna zloraba umetne inteligence, pri čemer naj bi posameznik od ChatGPT-ja pridobil navodila za izdelavo strelnega orožja. Ta primer je sprožil vprašanja glede varnosti umetne inteligence in regulacije njenih možnosti v vsakdanjih rizičnih situacijah.
Podrobnosti incidenta in uradna preiskava
Po poročanju več ameriških virov je incident izbruhnil po objavi poročila, da je storilec streljanja v Orlandu trdil, da je z uporabo ChatGPT-ja pridobil tehnična navodila za izdelavo improvizirane orožarske opreme. Floridski generalni državni tožilec, čigar urad je objavil začetek uradne preiskave 7. aprila 2026, je od podjetja OpenAI zahteval vse podatke o interakcijah, povezanih z incidentom. Viri, kot so Associated Press in Reuters, poročajo, da preiskava obsega tudi analizo varnostnih protokolov in potencialnih pomanjkljivosti v sistemu moderacije ChatGPT-ja.
OpenAI je v uradnem odzivu poudaril, da sodeluje z oblastmi in da dosledno preverja in izboljšuje varnostne filtre, s katerimi želi preprečiti zlorabe svojih storitev. Podjetje je izpostavilo, da vsakršna uporaba njihovih orodij v nezakonite namene predstavlja resno kršitev pogojev uporabe. Preiskava se osredotoča na vprašanje, ali je ChatGPT dejansko omogočil dostop do informacij, ki so lahko sporne ali nevarne, ter kako učinkoviti so bili obstoječi varnostni mehanizmi.
Floridske oblasti v okviru preiskave preučujejo pravne in etične vidike, ki izhajajo iz tega primera. Eden ključnih izzivov je vprašanje atribucije: ali je za posledice uporabe umetne inteligence odgovorno podjetje, uporabnik ali oba. Poleg tega preiskujejo, v kolikšni meri lahko trenutna zakonodaja učinkovito obravnava primere, kjer digitalna orodja posredno prispevajo k nevarnim dejanjem.
Širši kontekst, regulacija in možne posledice
Primer iz Floride sproža poglobljeno razpravo o regulaciji umetne inteligence na nacionalni in globalni ravni. Strokovnjaki opozarjajo na kompleksnost urejanja tako naprednih tehnologij, kjer se prepletajo vprašanja nadzora, avtonomije sistemov in t. i. “črne skrinjice”. Evropska unija je na primer z Aktom o umetni inteligenci uvedla posebne zahteve za preglednost in varnost, ki so lahko zgled tudi za ZDA. Incident v ZDA tako ni osamljen primer, ampak se umešča v širšo diskusijo o globalnih standardih za odgovornost razvijalcev AI sistemov.
Potencialne posledice za OpenAI lahko vključujejo kazenske ali civilne sankcije, če preiskava ugotovi, da so varnostni ukrepi podjetja nezadostni ali da so bili pogoji uporabe ChatGPT-ja preohlapni. Prav tako bodo morale tehnološke družbe posodobiti moderacijske mehanizme in izboljšati filtriranje tovrstnih vsebin. Med možnimi rešitvami so strožji nadzor nad temami, kot so orožje ali nasilje, dodatna izobraževanja uporabnikov ter uvedba obveznega beleženja in nadzora spornih poizvedb.
Primer iz Floride je sprožil tudi razpravo o potrebni uravnoteženosti med inovacijami in varnostjo. Regulatorji, podjetja in nevladne organizacije izpostavljajo, da je treba oblikovati pravno ogrodje, ki bo omogočalo razvoj umetne inteligence, hkrati pa preprečevalo zlorabe. Številni opozarjajo, da je nujno nadgraditi tako tehnične kot pravne varovalke, saj incidenti, kot je ta, opozarjajo na ranljivosti in pomen odgovornega razvoja ter uporabe naprednih digitalnih orodij.
