Indija se je izkazala kot nova pomembna članica držav, ki bodo vplivale na razvoj umetne inteligence, saj zdaj zahteva, da “večja” podjetja, preden bodo na trg dala nov model umetne inteligence, pridobijo dovoljenje od vlade za tak korak.
Ministrstvo za elektroniko in IT je izdalo predlog podjetjem, ki sicer ni javno objavljen na spletni strani ministrstva, v katerem svetuje podjetjem, naj zagotovijo, da njihovi UI produkti “ne dovoljujejo diskriminacije, morajo biti uravnoteženi in ne smejo ogrožati volilnih procesov“.
Takšen dokument s strani ministrstva sicer ni pravno zavezujoč, ampak, kot je povedal minister Rajeev Chandrasekhar, je to “signal o prihodnosti zakonodaje”.
Spodaj lahko vidimo objavo istega ministra, ki dodatno razlaga ta dokument in pravi, da je namenjen le velikim podjetjem, start-upi so izvzeti (definicija tega je seveda problematična) in da gre bolj za zaščito teh podjetij pred tožbami s strani uporabnikov.
Recent advisory of @GoI_MeitY needs to be understood
— Rajeev Chandrasekhar 🇮🇳(Modiyude Kutumbam) (@Rajeev_GoI) March 4, 2024
➡️Advisory is aimed at the Significant platforms and permission seeking from Meity is only for large plarforms and will not apply to startups.
➡️Advisory is aimed at untested AI platforms from deploying on Indian Internet…
Indijska regulativa seveda vpliva le na podjetja, ki poslujejo v Indiji, in seveda ne more neposredno vplivati na velike svetovno uporabljene modele. Je pa to prva taka zakonodaja, ki bi lahko bila zgled za zakonodaje drugih držav ali pa vsaj za procese, o katerih bi lahko začeli razmišljati.
Seveda se postavlja zelo veliko vprašanj, kdo bo lahko testiral takšne modele, kaj sploh so kriteriji, zato ali je nek model primeren ali ne, kdo lahko koga sploh omejuje in še kaj, vsekakor pa je to polje za nove razprave.
Peter Mesarec je verjetno najbolj poslušan predavatelj Chat GPT in UI v Sloveniji, njegovih predavanj o uporabi Chat GPT v podjetjih se je udeležilo več tisoč udeležencev, svoja znanja pa pogosto objavlja tukaj in na drugih spletnih straneh.