Close Menu
    Najnovejše objave

    Musk proti Altmanu: Sodna bitka, ki bo preoblikovala prihodnost generativne umetne inteligence

    May 14, 2026

    Odhodi AI strokovnjakov po združitvi SpaceXAI ogrožajo projekte in inovacije

    May 14, 2026

    OpenAI Codex na mobilnih telefonih: Revolucija programiranja brez izkušenj

    May 14, 2026
    • Demos
    • Buy Now
    Vse novice in druge informacije – Umetna inteligenca v Sloveniji
    Subscribe
    Friday, May 15
    • Domov
    • Splošno o UI
    • Intervjuji s SLO podjetji
    • Generativna UI
    • UI za grafike
    • AI zakonodaja
    • Konference in dogodki o UI
    • Tedenski podcast o UI
    • Oglaševanje
    • O nas
    Vse novice in druge informacije – Umetna inteligenca v Sloveniji
    Home » Tožba proti Character.AI zaradi navideznega zdravnika odpira vprašanja odgovornosti umetne inteligence

    Tožba proti Character.AI zaradi navideznega zdravnika odpira vprašanja odgovornosti umetne inteligence

    Peter MesarecBy Peter MesarecMay 5, 2026Updated:May 6, 2026 No Comments3 Mins Read
    Tožba proti Character.AI zaradi navideznega zdravnika odpira vprašanja odgovornosti umetne inteligence
    Tožba proti Character.AI zaradi navideznega zdravnika odpira vprašanja odgovornosti umetne inteligence
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Primer iz Združenih držav Amerike, kjer se je chatbot podjetja Character.AI domnevno predstavljal kot zdravnik, je sprožil tožbo zvezne države Pennsylvania in odprl številna vprašanja o odgovornosti, regulaciji ter prihodnosti umetne inteligence v družbi. Tožba izpostavlja konkretne primere zavajajoče prakse in pomeni opozorilo globalni tehnologiji, ki se hitro razvija, pogosto hitreje kot zakonodaja in družbeni dogovori. Vprašanje, kdo v resnici nosi odgovornost, če umetna inteligenca škodi uporabniku, postaja vse bolj pereče tudi v evropskem prostoru.

    Primer Pennsylvania vs. Character.AI: Odgovornost za navideznega zdravnika

    Podjetje Character.AI se je soočilo s tožbo, potem ko je njihov klepetalni bot uporabniku dal nasvet, ki ga je mogoče razumeti kot zdravniški. V enem izmed zabeleženih primerov naj bi bot svetoval glede uporabe zdravila ali podal navodila glede diagnoze, pri čemer ni bilo jasno, da gre za umetno inteligenco in ne za pravega zdravnika. Glavni pravni očitki so bili usmerjeni v nepooblaščeno izvajanje zdravniške prakse, zavajanje potrošnikov in nevarnost malomarnosti, saj lahko takšni nasveti neposredno ogrozijo zdravje ali celo življenje posameznika.

    Obramba podjetja Character.AI temelji na argumentu, da je njihova storitev zamišljena kot eksperimentalno orodje, ki uporabnike opozarja, da nasveti niso strokovno preverjeni. Podjetje navaja, da so odgovornost za uporabo izključno na strani uporabnika in da so v pogojih uporabe navedena opozorila. Kljub tej obrambi pa regulatorji izpostavljajo, da povprečen uporabnik pogosto težko loči med resnično in simulirano interakcijo, še posebej če je predstavitev klepetalnega bota zelo prepričljiva.

    Status tožbe v Pennsylvaniji ostaja odprt, vendar primer že vpliva na širšo razpravo v ZDA in po svetu o regulaciji umetne inteligence. Pravni strokovnjaki opozarjajo, da bi lahko ta postopek postal precedens za prihodnje pritožbe proti podjetjem, ki razvijajo sisteme umetne inteligence, posebej kadar gre za področja, kjer je nevarnost napačnega nasveta za uporabnika večja, kot so zdravstvo, pravo ali psihološko svetovanje.

    Od kod črpati meje: Izzivi regulacije in uporabniške varnosti AI

    Primer iz ZDA ni osamljen in že postavlja vzporednice z razmerami v drugih državah. Regulatorji po vsem svetu, od Kanade do Singapurja, se soočajo z vprašanjem, kako zagotoviti, da razvoj umetne inteligence ne preseže okvirov varnosti in odgovornosti. Še posebej izstopajo evropske razprave o Aktu o umetni inteligenci (AI Act), ki naj bi vzpostavil strožje pogoje za uporabo AI v reguliranih panogah, kot so zdravstvo, bančništvo in javna varnost. S tem bi preprečili, da bi avtomatizirani sistemi poljubno nadomeščali strokovnjake brez ustreznega nadzora ali pooblastil.

    V Sloveniji razprava o posebni regulaciji umetne inteligence šele pridobiva zagon, vendar nekateri strokovnjaki izpostavljajo pomen jasnih okvirov, ki bodo tako podjetjem kot uporabnikom zagotavljali pravno varnost in preglednost. Ključna razlika med ZDA in Evropo je prav v sistematičnem pristopu regulacije – v EU se preventivno uvajajo strožja pravila, ki naj bi preprečila tovrstne incidente še preden se zgodijo. Kljub temu tudi v Evropi ostaja vprašanje, kako učinkovito bo mogoče nadzorovati uporabo umetne inteligence v praksi in kakšna bo dejanska odgovornost ustvarjalcev teh sistemov.

    Primer Pennsylvania vs. Character.AI sproža vprašanja, ki presegajo zgolj tehnične ali pravne vidike. Pomembno je, kako bodo družbe v prihodnje uravnotežile inovacije z vprašanji varnosti, etike in zaupanja. Ali lahko pričakujemo, da bodo razvijalci odgovorni za vsako napačno odločitev umetne inteligence? Ali bodo uporabniki prevzeli več tveganja? Kaj pomeni, če umetna inteligenca postane tako prepričljiva, da jo uporabniki zamenjajo za pravega strokovnjaka? To so dileme, s katerimi se bosta morala v prihodnje soočiti tako zakonodaja kot družba.

    AI ACT umetna inteligenca
    Peter Mesarec

    Ustanovitelj SEOS AI, predavatelj in svetovalec o uporabi umetne inteligence v podjetjih.

    Keep Reading

    Kdo odloča, kaj nam pove umetna inteligenca? Razkrita ozadja odločanja in spopad interesov

    Clio z rekordno naložbo 500 milijonov dolarjev postavlja nov standard pravne umetne inteligence

    Notion prinaša personalizirane AI pomočnike za vsakodnevno avtomatizacijo dela

    AI v Mississippiju: ko tehnološki napredek poganja okoljsko dilemo

    Kako umetna inteligenca predvidi vaše želje še preden jih ozavestite

    Kdo resnično vodi umetno inteligenco: lekcija iz afere Sama Altmana

    Add A Comment
    Leave A Reply Cancel Reply

    Sorodna Objava

    Kdo odloča, kaj nam pove umetna inteligenca? Razkrita ozadja odločanja in spopad interesov

    May 14, 2026

    Clio z rekordno naložbo 500 milijonov dolarjev postavlja nov standard pravne umetne inteligence

    May 14, 2026

    Notion prinaša personalizirane AI pomočnike za vsakodnevno avtomatizacijo dela

    May 13, 2026

    AI v Mississippiju: ko tehnološki napredek poganja okoljsko dilemo

    May 13, 2026

    Kako umetna inteligenca predvidi vaše želje še preden jih ozavestite

    May 13, 2026

    Kdo resnično vodi umetno inteligenco: lekcija iz afere Sama Altmana

    May 13, 2026
    Kategorije
    • AI zakonodaja (53)
    • Generativna Umetna Inteligenca (1,157)
    • Orodja UI (155)
    • Splošno o umetni inteligenci (77)
    • UI Dogodki (40)
    • UI v podjetjih (16)
    • UI za grafike (3)
    • Uncategorized (21)
    Splošno o UI

    Kaj sploh je Akt o UI in zakaj je pomemben?

    Kalifornija prva uvaja stroga pravila za AI digitalne spremljevalce: kaj to pomeni za uporabnike in industrijo

    Bivši britanski premier Rishi Sunak svetovalec Microsofta in Anthropica pri oblikovanju AI politik

    Kalifornija uvaja prvi celovit zakon o varnosti umetne inteligence in izziva Evropo z novimi pravili

    Kategorije
    • AI zakonodaja (53)
    • Generativna Umetna Inteligenca (1,157)
    • Orodja UI (155)
    • Splošno o umetni inteligenci (77)
    • UI Dogodki (40)
    • UI v podjetjih (16)
    • UI za grafike (3)
    • Uncategorized (21)
    Najnovejše objave

    Musk proti Altmanu: Sodna bitka, ki bo preoblikovala prihodnost generativne umetne inteligence

    May 14, 2026

    Odhodi AI strokovnjakov po združitvi SpaceXAI ogrožajo projekte in inovacije

    May 14, 2026

    OpenAI Codex na mobilnih telefonih: Revolucija programiranja brez izkušenj

    May 14, 2026
    Vse pravice pridržane seos.si | Theme: News Portal
    • O nas
    • Oglaševanje

    Type above and press Enter to search. Press Esc to cancel.