Kitajski AI modeli in politična občutljivost: konkretni primeri
Ob izidu umetne inteligence iz največjih kitajskih podjetij, kot so DeepSeek, Alibaba (Tongyi Qianwen) in Baidu (Ernie Bot), so raziskovalci hitro opazili specifične načine, kako ti sistemi obravnavajo občutljive teme. **Ko so uporabniki Ernie Bot vprašali o protestih na Trgu nebeškega miru (Tiananmen), je model odgovoril, da “ni informacij o tem dogodku” ali pa je preusmeril pogovor na teme družbene harmonije.** Podobno je, ko je bil Tongyi Qianwen povprašan o položaju Ujgurov v Xinjiangu, ponudil splošen odgovor o “etnični raznolikosti Kitajske” in pomenu skupne prihodnosti. V primeru vprašanj o Dalajlami ali demokratičnih protestih v Hongkongu, so modeli pogosto navedli, da “niso pooblaščeni odgovarjati na takšne teme” ali so poudarili pomen “državne enotnosti” in “zakonitosti”.
Ti odgovori izhajajo iz dejstva, da morajo kitajski AI sistemi po uradnih regulativah slediti **državno določenim smernicam**, kot je zahteva po skladnosti s socialističnimi temeljnimi vrednotami in izogibanju vsebinam, ki bi lahko škodile ugledu države ali spodkopavale njeno oblast. **Zagovorniki takšnega pristopa pravijo, da to zagotavlja stabilnost in preprečuje širjenje lažnih informacij ter družbenih nemirov. Kritiki pa opozarjajo, da je posledica manjša svoboda izražanja in pomanjkanje večperspektivnosti.**
»Woke AI« in razprava o nevtralnosti: večplastni pogledi
Pojem »woke AI« se nanaša na očitke, da zahodni AI modeli, kot je ChatGPT, izražajo pristranskost v smeri naprednih, socialno občutljivih vrednot. **Kritiki navajajo, da model pogosto izogiba pisanju šal, ki bi lahko užalile določene skupine, ali zavrača ustvarjanje vsebin, ki bi lahko bile interpretirane kot rasistične ali seksistične. Prav tako opozarjajo, da v odgovorih o aktualnih političnih temah, kot so pravice LGBTQ+ ali migracije, modeli pogosto zagovarjajo stališča, ki so bolj v skladu z naprednimi družbenimi trendi.**
Primer: Če ChatGPT vprašamo o zgodovini pravic istospolno usmerjenih, poudari pomen enakopravnosti in napredek v zadnjih letih, čeprav bi nekateri želeli bolj nevtralno ali kritično analizo. **Zagovorniki “woke AI” pristopa pa menijo, da to odraža osnovne vrednote večine uporabnikov in prizadevanje za preprečevanje širjenja škodljivih stereotipov, sovražnega govora in dezinformacij.** Menijo, da umetna inteligenca mora delovati v skladu z zakonodajo in etičnimi načeli, ki ščitijo ranljive skupine in podpirajo spoštljiv dialog.
Trumpova “anti-woke AI” pobuda: možni scenariji in vplivi
Če bi v ZDA sprejeli predlagano Trumpovo “anti-woke AI” uredbo, bi posledice lahko močno preoblikovale tamkajšnji razvoj umetne inteligence. **Dokument bi lahko zahteval, da ameriški AI sistemi zagotavljajo t.i. “nevtralnost mnenj” in se izogibajo političnemu nagibanju v katerokoli smer. Federalne agencije bi lahko postale dolžne spremljati in ocenjevati pristranskost tako, da vključijo tudi kriterije, kot je politična nevtralnost, ne le zaščita pred diskriminacijo na podlagi rase ali spola.**
Takšen ukrep bi lahko privedel do vzpostavitve **dveh ločenih ekosistemov AI** v ZDA: enega, ki bi sledil strogim načelom nevtralnosti in odprtega govora, ter drugega, ki bi umetno inteligenco razvijal v skladu s progresivnimi, etično usmerjenimi smernicami. V praksi bi to pomenilo, da bi imeli uporabniki možnost izbire med sistemi, ki so bolj tolerantni do različnih mnenj, in tistimi, ki bolj pazijo na občutljivost in varovanje ranljivih skupin.
Nekateri strokovnjaki opozarjajo, da bi takšna polarizacija lahko spodbudila inovacije in konkurenco, a tudi povečala razlike v dostopu do informacij, zlasti kadar bi različni modeli na isto vprašanje odgovarjali različno glede na svojo osnovno filozofijo.
Argumenti za in proti: iskanje ravnovesja v umetni inteligenci
**Kitajski pristop k AI urejanju temelji na ideji nacionalne stabilnosti in varnosti, pri čemer uradniki poudarjajo, da doslednost in nadzor ščitita državljane pred nevarnimi informacijami.** Nasprotniki pa menijo, da to omejuje svobodo izražanja in ustvarja enostransko informacijsko okolje brez prostora za kritiko ali razpravo.
**Ameriški model, kljub obtožbam o “woke” pristranskosti, temelji na varovanju posameznika in zmanjševanju možnosti škodljivih učinkov umetne inteligence na družbo.** Vendar tudi tam razprave o mejah nevtralnosti, svobodi govora in etiki postajajo vedno bolj zapletene, saj ni univerzalnega odgovora na vprašanje, katere vrednote naj AI sledi.
Prihodnost AI: več ekosistemov in globalna razdrobljenost?
Glede na aktualne trende je mogoče pričakovati, da bo spor o pristranskosti umetne inteligence privedel do **”balkanizacije” interneta**, kjer bodo imele posamezne države ali regije svoje, med seboj izolirane digitalne ekosisteme, z različno stopnjo svobode izražanja in ideološke naravnanosti. To bi lahko pomembno vplivalo na dostop do informacij, globalno digitalno sodelovanje in same temelje informacijske družbe.
**Za slovensko in evropsko okolje je izziv v tem, kako zagotoviti varno, etično in pluralno AI, ki ne bo le prenašala tujih konfliktov, temveč bo odražala tudi lastne vrednote in demokratične standarde.** V prihodnosti bo pomembno iskati ravnovesje med zaščito uporabnikov, spodbujanjem inovacij in ohranjanjem odprte družbe, ki si upa postavljati vprašanja – tudi tistim, ki jih AI včasih raje preskoči.
