Close Menu
    Najnovejše objave

    Meta odpira novo fronto v nadzoru: zbiranje tipkanja zaposlenih in tveganja za zasebnost

    April 22, 2026

    Neznana skupina vdrla v strogo varovano varnostno orodje podjetja Anthropic

    April 21, 2026

    SpaceX in Cursor: Kaj bi prineslo sodelovanje umetne inteligence in vesoljskih tehnologij?

    April 21, 2026
    • Demos
    • Buy Now
    Vse novice in druge informacije – Umetna inteligenca v Sloveniji
    Subscribe
    Wednesday, April 22
    • Domov
    • Splošno o UI
    • Intervjuji s SLO podjetji
    • Generativna UI
    • UI za grafike
    • AI zakonodaja
    • Konference in dogodki o UI
    • Tedenski podcast o UI
    • Oglaševanje
    • O nas
    Vse novice in druge informacije – Umetna inteligenca v Sloveniji
    Home » Delve pod drobnogledom zaradi lažnih certifikatov: posledice za zaupanje v AI industriji

    Delve pod drobnogledom zaradi lažnih certifikatov: posledice za zaupanje v AI industriji

    Peter MesarecBy Peter MesarecMarch 21, 2026Updated:April 15, 2026 No Comments3 Mins Read
    Delve pod drobnogledom zaradi lažnih certifikatov: posledice za zaupanje v AI industriji
    Delve pod drobnogledom zaradi lažnih certifikatov: posledice za zaupanje v AI industriji
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Podjetje Delve je v preteklih tednih povzročilo burne odzive v tehnološkem sektorju zaradi domnevnih nepravilnosti pri navajanju skladnosti s pomembnimi regulativami, kot so GDPR in ISO 27001. Medijska poročila iz ZDA navajajo, da je ameriška zvezna trgovinska komisija (FTC) sprožila preiskavo zaradi suma, da je Delve strankam predstavljal ponarejena ali neupravičeno pridobljena potrdila o varstvu podatkov. Več virov iz industrije AI je izpostavilo, da so bile nekatere “uradne” ocene skladnosti javno dostopne samo v Delvejevih promocijskih materialih, ne pa tudi v registrih akreditiranih organov.

    Specifične nepravilnosti in regulatorni odziv

    Preiskava FTC se osredotoča na sumljivo uporabo referenc na standarde, kot sta ISO 27001 ter skladnost z evropsko uredbo GDPR. Nekaj strank je primerjalo Delvejeve izjave z dejanskimi javnimi viri in ugotovilo, da določeni certifikati niso nikjer zavedeni. Med spornimi dokumenti naj bi izstopala predvsem “Certificate of Data Protection Compliance”, ki ni bila izdana s strani priznane organizacije. Delve je v odzivu za ameriške medije priznal, da so določeni materiali res lahko zavajajoči in je napovedal temeljito notranjo revizijo.

    Ameriški regulatorji so že stopili v stik s ključnimi partnerji podjetja in zahtevali dodatno dokumentacijo. Vzporedno poteka tudi neformalno preverjanje s strani evropskih institucij, saj je Delve svoje storitve ponujal tudi uporabnikom v EU. Podjetju grozijo finančne kazni in omejitve poslovanja, če se izkaže, da gre za sistematično zavajanje. V industriji umetne inteligence se odpirajo vprašanja o nadzoru in transparentnosti ob hitrem uvajanju novih rešitev.

    Po objavi članka v več tujih medijih so nekateri pomembni partnerji, predvsem iz finančnega in zdravstvenega sektorja, prekinili sodelovanje, dokler ne bodo razjasnjene vse okoliščine. Pojavile so se tudi pobude za oblikovanje skupnih platform, na katerih bi se preverjalo verodostojnost vseh AI ponudnikov, kar je v tej fazi še v povojih, a nakazuje smer razvoja industrije.

    Pomen zaupanja in lekcije za AI trg

    Primer Delve razkriva, kako občutljivo je zaupanje v podjetja, ki razvijajo in uvajajo umetno inteligenco. Varnost, varovanje podatkov in etična transparentnost niso le pogoj za skladnost s predpisi, temveč postajajo odločilni konkurenčni dejavniki. Nejasne ali lažne izjave lahko hitro ogrozijo ugled in poslovanje, še posebej v sektorju AI, kjer so podatki pogosto najpomembnejša vrednost podjetja.

    Industrija umetne inteligence čuti pritisk, da hitreje širi inovacije, a pogosto zaostaja pri notranjih kontrolah, predvsem pri “compliance by design” načrtovanju. Strokovnjaki opozarjajo, da bi morali AI sistemi že v zasnovi omogočati sledljivost in avtomatizirano preverjanje skladnosti, kar bi zmanjšalo možnosti za tovrstne zlorabe. Ravno umetna inteligenca lahko v prihodnje omogoči bolj natančno in sprotno preverjanje skladnosti – če je uporabljena odgovorno in pod ustreznim nadzorom.

    Primer je sprožil razpravo o potrebi po strožjih regulativah, še posebej za podjetja, ki ponujajo osnovno infrastrukturo ali upravljajo občutljive podatke. Nova pravila naj bi zahtevala javno objavljanje vseh certifikatov in uporabo neodvisnih platform za identifikacijo in preverjanje trditev. Za podjetja, ki delujejo na področju AI, je ta dogodek pomembno opozorilo, da so odgovornost, transparentnost in etičnost neločljivo povezani z uspešno rastjo in dolgoročnim zaupanjem uporabnikov.

    AI ACT ai skladnost umetna inteligenca
    Peter Mesarec

    Ustanovitelj SEOS AI, predavatelj in svetovalec o uporabi umetne inteligence v podjetjih.

    Keep Reading

    Uporaba umetne inteligence v programiranju – Frenk Dragar

    Večnivojska vpeljava Umetne Inteligence na A1

    Amazon in Anthropic postavljata nova pravila v vojni za prevlado umetne inteligence

    Kako umetna inteligenca spreminja novinarstvo: priložnosti, izzivi in prihodnost poklica

    NSA uvaja napredno umetno inteligenco Anthropic kljub nasprotovanju Pentagona

    Fermi pretresa AI industrijo: nenaden odhod vodilnih kadrov postavlja prihodnost jedrske umetne inteligence pod vprašaj

    Add A Comment
    Leave A Reply Cancel Reply

    Sorodna Objava

    Uporaba umetne inteligence v programiranju – Frenk Dragar

    April 21, 2026

    Večnivojska vpeljava Umetne Inteligence na A1

    April 21, 2026

    Amazon in Anthropic postavljata nova pravila v vojni za prevlado umetne inteligence

    April 20, 2026

    Kako umetna inteligenca spreminja novinarstvo: priložnosti, izzivi in prihodnost poklica

    April 20, 2026

    NSA uvaja napredno umetno inteligenco Anthropic kljub nasprotovanju Pentagona

    April 20, 2026

    Fermi pretresa AI industrijo: nenaden odhod vodilnih kadrov postavlja prihodnost jedrske umetne inteligence pod vprašaj

    April 20, 2026
    Kategorije
    • AI zakonodaja (53)
    • Generativna Umetna Inteligenca (1,057)
    • Orodja UI (155)
    • Splošno o umetni inteligenci (77)
    • UI Dogodki (40)
    • UI v podjetjih (14)
    • UI za grafike (3)
    • Uncategorized (21)
    Splošno o UI

    Kaj sploh je Akt o UI in zakaj je pomemben?

    Kalifornija prva uvaja stroga pravila za AI digitalne spremljevalce: kaj to pomeni za uporabnike in industrijo

    Bivši britanski premier Rishi Sunak svetovalec Microsofta in Anthropica pri oblikovanju AI politik

    Kalifornija uvaja prvi celovit zakon o varnosti umetne inteligence in izziva Evropo z novimi pravili

    Kategorije
    • AI zakonodaja (53)
    • Generativna Umetna Inteligenca (1,057)
    • Orodja UI (155)
    • Splošno o umetni inteligenci (77)
    • UI Dogodki (40)
    • UI v podjetjih (14)
    • UI za grafike (3)
    • Uncategorized (21)
    Najnovejše objave

    Meta odpira novo fronto v nadzoru: zbiranje tipkanja zaposlenih in tveganja za zasebnost

    April 22, 2026

    Neznana skupina vdrla v strogo varovano varnostno orodje podjetja Anthropic

    April 21, 2026

    SpaceX in Cursor: Kaj bi prineslo sodelovanje umetne inteligence in vesoljskih tehnologij?

    April 21, 2026
    Vse pravice pridržane seos.si | Theme: News Portal
    • O nas
    • Oglaševanje

    Type above and press Enter to search. Press Esc to cancel.