Leta 2026 je Wikipedija zabeležila več primerov, ko so se v člankih znašle napačne ali izmišljene informacije, ki jih je ustvarila umetna inteligenca. V enem od člankov o znanem znanstveniku je sistem samodejno vnesel izmišljene navedbe virov, ki jih v resnici ni bilo, drugje pa so avtomatizirani generatorji prispevali pristransko besedilo o aktualnih političnih temah. Takšne napake se pogosto pojavijo v manj nadzorovanih jezikovnih različicah ali pri manj pogostih temah, kjer prostovoljci težje sproti preverjajo natančnost zapisov. Zaradi teh primerov je zaupanje v verodostojnost Wikipedije postalo vprašljivo, kar je skupnost spodbudilo k razmisleku o strožjem nadzoru uporabe umetne inteligence.
Ekosistem ustvarjanja vsebin in etične dileme
Izzivi, s katerimi se spopada Wikipedija, niso edinstveni. Z razmahom generativnih jezikovnih modelov so podobne težave zaznali tudi v novičarskih uredništvih, akademskem pisanju in na družbenih omrežjih. Na primer, več spletnih portalov je moralo umakniti članke, ki so vsebovali neresnične informacije, ker so bile pripravljene s pomočjo umetne inteligence brez ustreznega človeškega pregleda. V znanstvenih objavah so zaznali izmišljene reference, kar lahko ogrozi kredibilnost celotne stroke. Družbena omrežja pa se soočajo s hitrim širjenjem netočnih objav, ki jih pogosto ni mogoče razločiti od človeških.
Širše družbene in etične implikacije vključujejo nevarnost manipulacije javnega mnenja, zmanjšanje zmožnosti ločevanja med človeško in strojno ustvarjeno vsebino ter vprašanja odgovornosti za napačne informacije. V okolju, kjer lahko kdorkoli hitro ustvari verodostojen tekst, postaja preverjanje virov ključno. To pa zahteva nova orodja in kompetence, ki jih uporabniki in uredniki šele razvijajo.
S tem vprašanjem se pojavlja tudi tveganje, da bo odprti ekosistem znanja postal žrtev tehnološkega napredka, če mu skupnost ne bo uspela slediti. Neravnovesje med hitrostjo avtomatizirane produkcije in človeškim nadzorom lahko ogrozi temeljno načelo preverljivosti, na katerem sloni Wikipedija in podobne platforme.
Koristi, razlogi za uporabo in prihodnje rešitve
Kljub pomislekom številni zagovorniki verjamejo, da lahko umetna inteligenca pomembno prispeva k razvoju odprtih vsebin. Med ključnimi prednostmi so hitrejša priprava osnutkov, avtomatsko prevajanje člankov, pospešeno zbiranje osnovnih dejstev in olajšanje dostopnosti informacij v manj razširjenih jezikih. Nekateri vidijo potenčal umetne inteligence tudi v odkrivanju napak, preverjanju plagiatov ali predhodnem filtriranju spornih vsebin.
Pomembno je izpostaviti, da skupnost razmišlja o novih tehnoloških pristopih, s katerimi bi umetno inteligenco vključila v proces preverjanja in urejanja. V razpravah se omenja možnost razvoja orodij, ki bi avtomatsko označevala sumljive navedbe, analizirala slog pisanja ali celo zaznavala halucinacije umetne inteligence. S tem bi prostovoljci dobili boljšo podporo pri nadzoru vsebin.
Vprašanje ostaja, ali bo zgolj označevanje člankov, kjer je uporabljena umetna inteligenca, zadostovalo. Brez dodatnih varovalk in sodelovanja med človekom in strojem se lahko število napak poveča hitreje, kot jih skupnost lahko odkrije. Prihodnji izzivi vključujejo izpopolnjevanje detekcije avtomatiziranih vsebin ter izobraževanje uporabnikov o tem, kako prepoznati in kritično ovrednotiti informacije. Razvoj transparentnih ter odgovorno uporabljenih tehnologij bo ključen, če želimo ohraniti in nadgraditi odprtost ter zanesljivost znanja v digitalni dobi.
