Uvod in zakonodajni pregled
Zakon o umetni inteligenci Evropske unije (EU AI Act) je prvi celovit okvir na svetu za regulacijo umetne inteligence, katerega cilj je zagotoviti zanesljivo umetno inteligenco, ki upošteva varnost, temeljne pravice in družbene vrednote digital-strategy.ec.europa.eu. Zakon je Evropska komisija predlagala aprila 2021, po obsežnih pogajanjih pa je bil formalno sprejet sredi leta 2024 europarl.europa.eu europarl.europa.eu. Določa pristop, ki temelji na oceni tveganja za upravljanje umetne inteligence ter določa obveznosti v sorazmerju z možnostjo škode, ki jo sistem umetne inteligence lahko povzroči artificialintelligenceact.eu.
Časovnica sprejemanja zakonodaje: Ključni mejniki vključujejo potrditev v Evropskem parlamentu v letih 2023–2024 in uradno objavo 12. julija 2024, kar je sprožilo začetek veljavnosti zakona 1. avgusta 2024 artificialintelligenceact.eu artificialintelligenceact.eu. Vendar se njegove določbe uvajajo postopno v naslednjih letih:
- 2. februar 2025: Sistemi umetne inteligence z nesprejemljivim tveganjem so prepovedani. Vse prakse umetne inteligence, ocenjene kot “nesprejemljivo tveganje” (glej spodaj), so od tega datuma prepovedane europarl.europa.eu. Države članice EU so prav tako začele izvajati programe opismenjevanja o umetni inteligenci za izobraževanje javnosti artificialintelligenceact.eu.
- 2. avgust 2025: Veljajo pravila o preglednosti in upravljanju. Začnejo veljati nova pravila za modele umetne inteligence splošnega namena (osnovni modeli) in organe za upravljanje umetne inteligence artificialintelligenceact.eu digital-strategy.ec.europa.eu. Operativni postane urad EU za umetno inteligenco (AI Office, razložen kasneje), od tega trenutka dalje pa je mogoče izreči tudi kazni za neskladnost orrick.com orrick.com.
- 2. avgust 2026: V celoti začnejo veljati bistvene zahteve. Večina obveznosti iz zakona o umetni inteligenci – zlasti za uvajanje sistemov umetne inteligence z visokim tveganjem – postane obvezna 24 mesecev po začetku veljavnosti digital-strategy.ec.europa.eu. Do tega datuma morajo ponudniki novih sistemov umetne inteligence z visokim tveganjem izpolnjevati zahteve zakona, preden svoje sisteme uvedejo na trg EU.
- 2. avgust 2027: Potečejo podaljšani roki. Nekateri sistemi umetne inteligence, integrirani v regulirane proizvode (kot so medicinske naprave z umetno inteligenco), imajo daljše prehodno obdobje (36 mesecev) do leta 2027, ko morajo doseči skladnost digital-strategy.ec.europa.eu. Prav tako morajo ponudniki obstoječih modelov umetne inteligence splošnega namena (nameščenih na trg pred avgustom 2025) do leta 2027 posodobiti te modele, da bodo izpolnjevali zahteve zakona artificialintelligenceact.eu.
Ta postopna časovnica daje organizacijam čas za prilagoditev, medtem ko zgodnji ukrepi (kot je prepoved škodljivih uporab umetne inteligence) takoj naslavlja najresnejša tveganja europarl.europa.eu. V nadaljevanju bomo razložili sistem razvrščanja tveganj v zakonu in kaj to pomeni za deležnike s področja umetne inteligence.
Razvrščanje po stopnjah tveganja: nesprejemljivo, visoko, omejeno in minimalno tveganje
Vsak sistem umetne inteligence je po zakonu EU AI Act razvrščen glede na raven tveganja, kar določa način njegove regulacije artificialintelligenceact.eu. Štiri ravni tveganja so:
- Nesprejemljivo tveganje: Te uporabe umetne inteligence pomenijo jasno grožnjo varnosti ali temeljnim pravicam in so v EU popolnoma prepovedane digital-strategy.ec.europa.eu. Zakon izrecno prepoveduje osem praks, med njimi: umetno inteligenco, ki uporablja subliminalne ali manipulativne tehnike, ki povzročijo škodo, izkorišča ranljive skupine (kot so otroci ali osebe z invalidnostjo) na škodljive načine, vladno “družbeno točkovanje” državljanov ter določena orodja prediktivnega policijskega dela artificialintelligenceact.eu artificialintelligenceact.eu. Posebej je oddaljena biometrična identifikacija v realnem času (npr. živa prepoznava obrazov na javnih mestih) za namene kazenskega pregona načeloma prepovedana digital-strategy.ec.europa.eu. Obstajajo omejene izjeme – na primer policija lahko v realnem času uporabi prepoznavo obrazov za preprečitev neposredne teroristične grožnje ali iskanje pogrešanega otroka, a samo z odobritvijo sodišča in pod strogim nadzorom europarl.europa.eu. Pravzaprav so vsi sistemi umetne inteligence, katerih uporaba velja za nezdružljivo z vrednotami EU (npr. socialno točkovanje ali umetna inteligenca, ki neupravičeno napoveduje kriminalno vedenje), nedopustni digital-strategy.ec.europa.eu.
- Visoko tveganje: Sistemi umetne inteligence, ki resno ogrožajo zdravje, varnost ali temeljne pravice, spadajo v kategorijo visoko tveganje. Ti so dovoljeni na trgu le, če so vzpostavljeni obsežni varnostni ukrepi. Primeri visoko tveganih rab so opredeljeni na dva načina: (1) komponente umetne inteligence, ki so ključno vezane na varnost in so že urejene z zakonodajo EU o varnosti proizvodov (na primer AI v medicinskih napravah, avtomobilih, letalstvu ipd.) artificialintelligenceact.eu; ali (2) aplikacije umetne inteligence na določenih področjih, ki so opisana v Prilogi III zakona artificialintelligenceact.eu. Priloga III zajema področja, kot so kritična infrastruktura, izobraževanje, zaposlovanje, temeljne storitve, kazensko pravo, nadzor meja in pravosodje europarl.europa.eu europarl.europa.eu. Tako je umetna inteligenca v izobraževanju (npr. ocenjevanje izpitov ali odločanje o sprejemu v šolo) opredeljena kot visoko tvegana zaradi vpliva na življenjske priložnosti posameznika digital-strategy.ec.europa.eu. Prav tako so izredno tvegani sistemi umetne inteligence za zaposlovanje ali upravljanje na delovnem mestu (npr. orodja za preverjanje življenjepisov) ter sistemi za ocenjevanje kreditne sposobnosti digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Tudi robotski kirurg ali diagnostično orodje, ki temelji na umetni inteligenci, velja za visoko tveganje – bodisi kot del medicinske naprave ali zaradi možnosti, da bi nepravilno delovanje ogrozilo paciente digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Visokotveganim sistemom umetne inteligence je predpisana stroga regulacija – ponudniki takšnih sistemov morajo pred uporabo uvesti temeljite ukrepe za obvladovanje tveganj in opraviti postopek ugotavljanja skladnosti (podrobnosti v naslednjem poglavju) cimplifi.com. Vsi sistemi umetne inteligence z visokim tveganjem bodo prav tako vpisani v podatkovno zbirko EU, kar zagotavlja preglednost in nadzor cimplifi.com. Pomembno je, da zakon določa ozke izjeme, tako da vsak trivialen primer na teh področjih ni avtomatično opredeljen kot visoko tveganje – na primer, če umetna inteligenca zgolj pomaga človeku pri odločitvi ali opravlja manjšo podopravilo, je lahko izvzeta iz “visokega tveganja” artificialintelligenceact.eu. Toda v splošnem velja, da je umetna inteligenca, ki v navedenih sektorjih opravlja občutljive naloge, praviloma visoko tvegana in mora izpolnjevati stroge zahteve skladnosti.
- Omejeno tveganje: Ta kategorija zajema sisteme umetne inteligence, ki niso visoko tvegani, vendar zahtevajo določene zahteve glede transparentnosti artificialintelligenceact.eu. Zakon v teh primerih ne predpisuje strogih ukrepov – zahteva le, da morajo ljudje vedeti, kdaj uporabljajo umetno inteligenco. Tako morajo klepetalniki in navidezni pomočniki uporabnika jasno obvestiti, da komunicira s strojem in ne z osebo digital-strategy.ec.europa.eu. Prav tako mora generativna umetna inteligenca, ki ustvarja sintetične slike, video ali zvok (npr. deepfake posnetki), poskrbeti, da je vsebina označena kot ustvarjena z umetno inteligenco – denimo z vodnim žigom ali oznako, da gledalci niso zavedeni europarl.europa.eu digital-strategy.ec.europa.eu. Cilj je ohraniti zaupanje ljudi s pomočjo transparentnosti. Poleg navedenih zahtev glede razkritja se umetna inteligenca z omejenim tveganjem lahko uporablja brez predhodne odobritve. Zakon večino potrošniških aplikacij umetne inteligence obravnava kot omejeno tveganje, kjer je glavna zahteva, da je uporabnik ustrezno obveščen. Primer je umetna inteligenca, ki spreminja glas ali ustvarja realistično sliko – takšna AI ni prepovedana, vendar mora biti jasno označena kot vsebina, ki jo je ustvaril stroj, da se prepreči zavajanje europarl.europa.eu.
- Minimalno (ali brez) tveganja: Vse druge uporabe umetne inteligence spadajo v to najnižjo kategorijo, kjer je večina aplikacij umetne inteligence. Takšni sistemi predstavljajo zanemarljiva ali rutinska tveganja in zato nanje ne veljajo nobene nove regulativne zahteve po zakonu o umetni inteligenci artificialintelligenceact.eu digital-strategy.ec.europa.eu. Pogosti primeri so: filtri za neželeno pošto, priporočilni algoritmi, umetna inteligenca v video igrah ali trivialni pripomočki v programski opremi. Za te primere zakon nima dodatnih določil, razvijajo in uporabljajo se lahko kot doslej, pod pogoji obstoječe zakonodaje (npr. zakonodaja o varstvu potrošnikov ali zasebnosti). EU posebej izpostavlja, da je večina trenutnih sistemov umetne inteligence nizko tveganih in jih zato ni smiselno preveč regulirati digital-strategy.ec.europa.eu. Regulacija je usmerjena na izjeme (visoko in nesprejemljivo tveganje), medtem ko umetna inteligenca z minimalnim tveganjem ostaja neobremenjena in to spodbuja nadaljnje inovacije v tem segmentu.
Če povzamemo, evropski model, ki temelji na stopnjah tveganja, popolnoma prepoveduje najnevarnejše prakse umetne inteligence, strogo nadzoruje občutljivo uporabo umetne inteligence in zbira le osnovne zahteve za ostale cimplifi.com. Slojeviti pristop želi zaščititi državljane pred škodo, pri tem pa preprečiti enotno (preostro) regulacijo na celotnem področju umetne inteligence. V nadaljevanju bomo pogledali, kaj skladnost pomeni za tiste, ki razvijajo ali uvajajo sisteme umetne inteligence, zlasti na področju z visokim tveganjem.
Obveznosti za razvijalce (ponudnike) in uporabnike (uvajalce) umetne inteligence
Zahteve za skladnost visoko tveganih sistemov umetne inteligence: Če razvijate sistem umetne inteligence, ki je označen kot visoko tvegan, vam Zakon o umetni inteligenci EU nalaga podroben seznam obveznosti pred in po vstopu na trg. Te v bistvu odražajo prakse iz varnostno-kritičnih industrij in varstva podatkov, ki se zdaj uporabljajo za umetno inteligenco. Ponudniki (razvijalci, ki sistem dajo na trg) visoko tveganih AI morajo med drugim:
- Vzpostaviti sistem upravljanja tveganj: Potreben je neprekinjen postopek upravljanja tveganj skozi celoten življenjski cikel AI sistema artificialintelligenceact.eu. To pomeni prepoznavanje predvidljivih tveganj (npr. varnostnih tveganj, tveganj pristranskosti ali napak), njihovo analizo in vrednotenje ter sprejemanje ukrepov za ublažitev od zasnove do obdobja po vpeljavi artificialintelligenceact.eu. To je podobno pristopu »varnost že v zasnovi« – predvideti, kako bi lahko AI sistem odpovedal ali povzročil škodo, in te težave nasloviti v zgodnji fazi.
- Zagotoviti kakovostne podatke in upravljanje podatkov: Podatkovne zbirke za učenje, validacijo in testiranje morajo biti ustrezne, reprezentativne in čim bolj proste napak ali pristranskosti artificialintelligenceact.eu. Zakon poudarja preprečevanje diskriminatornih izidov, zato morajo ponudniki preveriti svoje podatke na neuravnoteženosti ali napake, ki bi lahko povzročile, da AI obravnava ljudi nepošteno digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Na primer, če razvijate AI za zaposlovanje, je treba preveriti podatke za učenje, da se ne odražajo morebitne pretekle spolne ali rasne pristranskosti pri zaposlovanju. Upravljanje podatkov vključuje tudi sledenje izvoru podatkov in njihovi obdelavi, da je mogoče razumeti in revidirati delovanje AI sistema.
- Tehnična dokumentacija in vodenje evidenc: Razvijalci morajo pripravljati obsežno tehnično dokumentacijo, ki dokazuje skladnost AI sistema artificialintelligenceact.eu. Dokumentacija mora opredeljevati namen sistema, njegovo zasnovo, arhitekturo, algoritme, podatke za učenje in vgrajene kontrolne mehanizme tveganj artificialintelligenceact.eu. Mora biti dovolj obsežna, da lahko regulatorji ocenijo, kako sistem deluje in ali izpolnjuje zahteve zakona. Poleg tega morajo biti visoko tvegani AI sistemi zasnovani tako, da samodejno shranjujejo zapise o delovanju – tj. samodejno beležijo dogodke ali odločitve, kar omogoča sledljivost in naknadne analize artificialintelligenceact.eu digital-strategy.ec.europa.eu. Na primer, AI sistem, ki odloča o kreditih, bi beležil vstopne podatke in podlago za vsako odločitev. Ti zapisi pomagajo prepoznati napake ali pristranskosti in so ključni v primeru incidenta ali inšpekcijskega nadzora.
- Človeški nadzor in jasna navodila: Ponudniki morajo sistem zasnovati tako, da omogoča učinkovit človeški nadzor s strani uporabnika ali operaterja artificialintelligenceact.eu. To lahko pomeni vključitev funkcij ali orodij, ki omogočajo človeku poseg ali nadzor nad delovanjem AI. Ponudnik mora uvajalcu zagotoviti tudi podrobna navodila za uporabo artificialintelligenceact.eu. Navodila morajo pojasniti, kako pravilno namestiti in uporabljati AI, katere so njegove omejitve, kakšna je pričakovana natančnost, kakšni so potrebni ukrepi za človeški nadzor in kakšna so tveganja zlorabe artificialintelligenceact.eu. Ideja je, da lahko podjetje, ki AI uvaja (uvajalec), izvaja nadzor in upravljanje le, če mu razvijalec zagotovi potrebno znanje in sredstva. Na primer, proizvajalec AI za medicinsko diagnostiko mora bolnišnici, ki ga uporablja, pojasniti, kako pravilno razlagati izhode in kdaj naj zdravnik dodatno preveri rezultate.
- Učinkovitost, robustnost in kibernetska varnost: Visoko tvegani AI sistemi morajo zagotoviti ustrezno raven natančnosti, robustnosti in kibernetske varnosti glede na svoj namen artificialintelligenceact.eu. Ponudniki morajo testirati in prilagoditi svoje modele tako, da čim bolj zmanjšajo stopnjo napak in preprečijo nepredvidljivo vedenje. Potrebne so tudi zaščite pred manipulacijo ali hekerskimi napadi (kibernetska varnost), saj je kompromitiran AI lahko nevaren (npr. če bi napadalec spremenil AI za nadzor prometa). V praksi to pomeni stresno preizkušanje AI v različnih pogojih in zagotavljanje, da lahko obvlada variacije vhodnih podatkov brez kritičnih izpadov artificialintelligenceact.eu. Vse znane omejitve (na primer, če se natančnost AI zmanjša za določene demografske skupine ali scenarije) morajo biti dokumentirane in v največji možni meri omiljene.
- Sistem upravljanja kakovosti: Za povezavo vsega zgoraj navedenega morajo ponudniki vzpostaviti sistem upravljanja kakovosti artificialintelligenceact.eu. Gre za formalen organizacijski postopek za zagotavljanje stalne skladnosti – podobno kot ISO standardi kakovosti – ki pokriva vse od standardnih postopkov med razvojem do ravnanja z incidenti in posodobitvami. S tem se skladnost institucionalizira, tako da je zagotavljanje varne in zakonite umetne inteligence stalno opravilo ponudnika, ne pa enkraten napor.
Preden se lahko visoko tvegan AI sistem trži v EU, mora ponudnik opraviti postopek ugotavljanja skladnosti, s katerim preveri izpolnjenost vseh teh zahtev. Mnogi visoko tvegani AI sistemi bodo podvrženi samopreizkusu, kjer ponudnik sam preveri skladnost in izda EU izjavo o skladnosti. Če pa je AI del določenih reguliranih izdelkov (npr. medicinskega pripomočka ali avtomobila), bo moral skladnost AI potrditi priglašeni organ (neodvisen zunanji ocenjevalec), skladno z obstoječo regulativo cimplifi.com. V vseh primerih bodo skladni AI sistemi nosili oznako CE, ki pomeni izpolnjevanje zahtev EU, in bodo vpisani v evropsko bazo visoko tveganih AI sistemov cimplifi.com. Ta javna baza zagotavlja preglednost in omogoča regulatorjem ter javnosti informacijo o tem, kateri visoko tvegani AI sistemi so v uporabi in kdo zanje odgovarja.
Obveznosti za uporabnike (uvajalce): Zakon zadeva tudi uporabnike oziroma izvajalce, ki visoko tvegane AI sisteme uporabljajo v poklicni dejavnosti. (To so podjetja ali organi, ki uporabljajo AI, ne pa končni uporabniki ali potrošniki.) Ključne obveznosti uvajalcev so: upoštevati navodila ponudnika, zagotavljati predpisani človeški nadzor in spremljati delovanje AI v dejanski uporabi digital-strategy.ec.europa.eu. Če uvajalec opazi, da AI deluje nepredvidljivo ali ima varnostne težave, mora ukrepati (tudi morebiti začasno ustaviti uporabo) ter o tem obvestiti ponudnika in pristojne organe. Uvajalci morajo tudi voditi evidenco pri uporabi AI (zapisovati njegove izhode in odločitve, kar dopolnjuje samodejno beleženje sistema) ter poročati o resnih incidentih ali napakah pristojnim organom artificialintelligenceact.eu. Na primer, bolnišnica, ki uporablja AI za postavljanje diagnoz, mora poročati, če je AI povzročil napačno diagnozo s škodljivimi posledicami za pacienta. Te obveznosti na strani uporabnikov zagotavljajo, da nadzor nadaljuje tudi po vpeljavi – umetna inteligenca ni prepuščena sama sebi, temveč je pod človeškim nadzorom ter s povratnimi informacijami razvijalcu in regulatorjem.
Vredno je omeniti, da majhni uporabniki (npr. mala podjetja) niso oproščeni teh obveznosti, če uporabljajo visoko tvegano AI, vendar so imeli snovalci zakona v mislih, da bo s pomočjo dokumentacije in podpore ponudnikov skladnost izvedljiva. Zakon razločuje tudi med uporabniki in prizadetimi osebami – slednji (npr. potrošnik, ki ga je AI zavrnil) nimajo dolžnosti po zakonu, imajo pa pravice, kot je vlaganje pritožb zaradi problematičnih sistemov umetne inteligence europarl.europa.eu.
Zahteve glede transparentnosti (tudi izven visoko tveganih sistemov): Poleg visoko tveganih sistemov Zakon o umetni inteligenci določa posebne ukrepe transparentnosti za določene AI sisteme ne glede na stopnjo tveganja. Te smo že omenili pod »omejeno tveganje«. Konkretno mora vsak AI sistem, ki komunicira z ljudmi, ustvarja vsebino ali spremlja ljudi, zagotoviti razkritje:- AI sistemi, ki komunicirajo z ljudmi (na primer chatbot-i ali AI asistenti), morajo uporabnika obvestiti, da gre za AI. Na primer, spletni chatbot za podporo uporabnikom mora jasno navesti, da je avtomatiziran, da uporabniki ne mislijo, da klepetajo z osebo digital-strategy.ec.europa.eu.
- AI, ki ustvarja ali manipulira z vsebino (slike, video, zvok ali besedilo) na način, da bi lahko zavajala, mora zagotoviti, da je vsebina označena kot ustvarjena z AI digital-strategy.ec.europa.eu. Tipičen primer so deepfake-i: če AI ustvari realistično sliko ali video nekoga, ki v resnici ni naredil ali rekel prikazanega, mora biti takšen medij jasno označen kot AI-generiran (razen če gre za satiro, umetnost ali varnostne raziskave, ki so lahko izvzete). Cilj je preprečevanje zavajanja in dezinformacij z jasnim razkritjem izvora medijev.
- AI sistemi, uporabljeni za biometrični nadzor (kot so kamere s prepoznavanjem obrazov) ali za prepoznavanje čustev, morajo ljudi obvestiti o svojem delovanju, kadar je to mogoče. (In kot že omenjeno, so številne od teh aplikacij v celoti prepovedane ali visoko tvegane s strogimi pogoji).
- Generativni AI modeli (pogosto imenovani temeljni modeli, kot so veliki jezikovni modeli – npr. ChatGPT) imajo posebne zahteve glede transparentnosti in informacij. Tudi če generativni model ni razvrščen kot visoko tvegan, mora njegov ponudnik razkriti določene informacije: na primer, AI-generirana vsebina mora biti označena, ponudnik pa mora objaviti povzetek avtorskih del, uporabljenih za učenje modela europarl.europa.eu. To informira uporabnike in ustvarjalce o morebitni intelektualni lastnini v učni množici in zagotavlja skladnost z zakonodajo EU o avtorskih pravicah europarl.europa.eu. Ponudniki generativnih modelov morajo tudi preprečiti ustvarjanje nezakonite vsebine, npr. z vgradnjo filtrov ali varoval v model europarl.europa.eu.
Mehanizmi izvrševanja, nadzorni organi in kazni
Za nadzor nad to obsežno zakonodajo Zakon o umetni inteligenci EU vzpostavlja večstopenjsko strukturo upravljanja in izvrševanja. To vključuje nacionalne organe v vsaki državi članici, nov osrednji Evropski urad za umetno inteligenco in koordinacijo prek odbora za AI. Pristop k izvrševanju deloma temelji na izkušnjah EU z režimi varnosti izdelkov in varstva podatkov (kot je mešana ureditev GDPR z nacionalnimi regulatorji in evropskim odborom).
Nacionalni pristojni organi: Vsaka država članica EU mora določiti enega ali več nacionalnih organov, odgovornih za nadzor dejavnosti na področju umetne inteligence (pogosto imenovanih Organ za nadzor trga za umetno inteligenco) orrick.com. Ti organi bodo izvajali vsakodnevne preiskave skladnosti – na primer preverjali, ali produkt ponudnika visokorizične umetne inteligence na trgu izpolnjuje zahteve, ali raziskovali pritožbe javnosti. Imajo pooblastila podobna tistim v obstoječi zakonodaji o varnosti proizvodov (Uredba (EU) 2019/1020): lahko zahtevajo podatke od ponudnikov, izvajajo inšpekcijske preglede in celo odredijo umik neskladnih sistemov umetne inteligence s trga orrick.com. Prav tako spremljajo trg glede morebitnih sistemov umetne inteligence, ki bi lahko zaobšli pravila ali predstavljali nepredvidena tveganja. Če je sistem umetne inteligence označen za neskladnega ali nevarnega, lahko nacionalni organi izdajo globe ali zahtevajo odpoklic/splošni umik sistema.
Vsaka država bo to vlogo verjetno dodelila že obstoječemu regulatorju ali ustvarila novega (nekateri so predlagali, da bi nadzor umetne inteligence prevzeli organi za varstvo podatkov ali sektorski regulatorji, kot so agencije za medicinske pripomočke za medicinsko umetno inteligenco, ipd., zaradi strokovnega znanja). Do avgusta 2025 morajo države članice imenovati in operativno vzpostaviti svojega regulatorja za umetno inteligenco artificialintelligenceact.eu, do 2026 pa mora vsaka država vzpostaviti tudi vsaj en regulativni peskovnik za umetno inteligenco (nadzorovano okolje za testiranje inovativne umetne inteligence pod nadzorom) artificialintelligenceact.eu.
Evropski urad za umetno inteligenco: Na ravni EU je bila znotraj Evropske komisije (natančneje pri GD CNECT) ustanovljena nova institucija, znana kot Urad za umetno inteligenco artificialintelligenceact.eu. Urad za umetno inteligenco je osrednji regulator, ki se osredotoča na umetno inteligenco splošnega namena in čezmejna vprašanja. Po aktu ima Urad za umetno inteligenco izključno pooblastilo za izvrševanje pravil za ponudnike modelov umetne inteligence splošnega namena (GPAI) orrick.com. To pomeni, da bo v primeru, če OpenAI, Google ali katerokoli podjetje ponuja velik model umetne inteligence, ki se uporablja po vsej Evropi, Urad za umetno inteligenco glavni izvrševalec, ki zagotavlja, da ti ponudniki izpolnjujejo svoje obveznosti (tehnično dokumentacijo, ukrepe za zmanjšanje tveganj itd.). Urad lahko neposredno zahteva informacije in dokumentacijo od ponudnikov temeljnih modelov ter zahteva popravljalne ukrepe v primeru neskladnosti orrick.com. Prav tako nadzira primere, ko je isti subjekt ponudnik temeljnega modela in tudi uporabnik visokorizičnega sistema, zgrajenega na njem – s ciljem, da ne pride do vrzeli med nacionalnim in EU nadzorom orrick.com.
Poleg izvrševanja ima Urad za umetno inteligenco osrednjo vlogo pri sledenju trendom ter sistemskim tveganjem umetne inteligence. Njegova naloga je analizirati nastajajoča visokorizična ali nepredvidena vprašanja (zlasti v povezavi z modelom GPAI) in lahko opravlja ocene zmogljivih modelov artificialintelligenceact.eu. Urad bo zaposloval strokovnjake (Komisija že išče AI strokovnjake za ta namen artificialintelligenceact.eu) in sodeloval z neodvisnim Znanstvenim svetom, sestavljenim iz AI strokovnjakov, ki svetujejo o tehničnih vprašanjih artificialintelligenceact.eu. Pomembno je, da bo Urad razvijal prostovoljne kodekse ravnanja in pripravljal smernice za industrijo – ter s tem pomagal razvijalcem umetne inteligence pri skladnosti (še posebej koristno za zagonska/SME podjetja) artificialintelligenceact.eu. Sodeloval bo z državami članicami, da zagotovi enotno izvajanje pravil ter po potrebi pomagal pri skupnih preiskavah, če vprašanje umetne inteligence zadeva več držav artificialintelligenceact.eu artificialintelligenceact.eu. V bistvu je Urad za umetno inteligenco poskus EU, da vzpostavi centraliziranega regulatorja za področje umetne inteligence, ki dopolnjuje nacionalne organe – podobno kot Evropski odbor za varstvo podatkov pri GDPR, vendar z bolj neposrednimi pristojnostmi na določenih področjih.
Odbor za umetno inteligenco: Akt vzpostavlja nov Evropski odbor za umetno inteligenco, ki ga sestavljajo predstavniki vseh nacionalnih organov za umetno inteligenco držav članic (poleg njih pa še Evropski nadzornik za varstvo podatkov ter Urad za umetno inteligenco kot opazovalca) artificialintelligenceact.eu. Naloga Odbora je zagotavljati usklajeno izvajanje pravil po vsej Evropi – člani bodo izmenjevali dobre prakse, po potrebi sprejemali mnenja in priporočila ter se usklajevali pri strategijah čezmejnega izvrševanja artificialintelligenceact.eu. Urad za umetno inteligenco služi kot sekretariat Odbora, organizira sestanke in pomaga pri pripravi dokumentov artificialintelligenceact.eu. Odbor lahko denimo spodbuja razvoj standardov ali pa razpravlja o posodobitvah Priloge Akta skozi čas. Gre za medvladni forum za zagotavljanje usklajenosti med državami ter preprečevanje razhajanj pri izvajanju, ki bi lahko ogrozila enotni trg umetne inteligence v EU.
Kazni za neskladnost: Akt o umetni inteligenci uvaja visoke globe za kršitve, kar sledi zastrašujočemu pristopu iz GDPR. Predvidene so tri stopnje upravnih kazni:
- Za najhujše kršitve – torej izvajanje prepovedanih praks umetne inteligence (uporabe, ki pomenijo nesprejemljivo tveganje in so prepovedane) – lahko globa znaša do 35 milijonov evrov ali 7 % svetovnega letnega prometa, kar je višje orrick.com. Gre za zelo visoko zgornjo mejo (opazno višjo kot pri GDPR, kjer je 4 % prometa). To ponazarja, kako resno EU jemlje npr. vzpostavitev tajnega sistema točkovanja prebivalstva ali nezakonito biometrično nadzorovanje – te so obravnavane kot najhujši korporativni prekrški.
- Za druge kršitve določb akta (npr. če niso izpolnjene obveznosti za visokorizično umetno inteligenco, če sistem ni registriran ali če manjkajo ukrepi preglednosti), je najvišja globa 15 milijonov evrov ali 3 % svetovnega letnega prometa orrick.com. To vključuje večino manjših kršitev skladnosti: če npr. podjetje ne opravi ocene skladnosti ali ponudnik skriva podatke pred organi – to spada v to kategorijo.
- Za navajanje napačnih, zavajajočih ali nepopolnih podatkov regulatorjem (npr. med preiskavo ali kot odziv na zahtevo za skladnost), je kazen lahko do 7,5 milijona evrov ali 1 % prometa orrick.com. Ta nižja stopnja se nanaša predvsem na oviranje postopkov oziroma nesodelovanje z organi.
Pomembno je, da zakon določa, da morajo biti MSP (mala in srednje velika podjetja) pri določanju višine kazni na spodnjem delu navedenih razponov, medtem ko so velike družbe izpostavljene višjim globam orrick.com. Z drugimi besedami, zneski 35 mio/7 % ali 15 mio/3 % so najvišje vrednosti; regulatorji imajo diskrecijo in morajo upoštevati velikost ter finančno moč prekrškarja. MSP bi tako lahko dobil nekaj milijonov kazni in ne odstotek prometa, da bi preprečili nesorazmeren vpliv, medtem ko bi lahko velike tehnološke družbe doletele kazni, izračunane kot odstotek prometa, če je potrebna resnična zavorna moč orrick.com.
Ti določeni kazenski ukrepi postanejo izvršljivi z dnem 2. avgusta 2025 za večino pravil orrick.com. (Od tega datuma dalje začnejo veljati poglavja o upravljanju in kaznih). Za nove obveznosti glede modelov umetne inteligence splošnega namena pa se kazni začnejo uporabljati leto kasneje, 2. avgusta 2026, v skladu z rokom, ko postanejo zahteve za temeljne modele obvezne orrick.com. To prehodno obdobje daje ponudnikom temeljnih modelov čas za pripravo.
Kar zadeva postopek in zaščitne ukrepe: podjetja bodo imela pravice, kot je pravica do izjave, preden je sprejeta sankcija, in zaupnost občutljivih podatkov, ki jih predložijo regulatorjem, je obvezna orrick.com. Akt tudi poudarja, da v nasprotju z nekaterimi drugimi zakonodajami EU Komisija (prek Urada za umetno inteligenco) nima širokih pooblastil za izvajanje nenapovedanih preiskav ali lastnoročno prisilno zbiranje pričanj – razen če začasno prevzame vlogo nacionalnega organa orrick.com. To odseva nekatere omejitve, ki naj bi umirile skrbi glede pretiranega posega v pristojnosti.
Izvrševanje Urada za umetno inteligenco: Evropska komisija lahko preko Urada za umetno inteligenco sama sproži izvršilne ukrepe v določenih primerih, predvsem v zvezi z umetno inteligenco splošnega namena. To je povsem novo izvršilno orodje – zgodovinsko Komisija ni neposredno uveljavljala pravil za izdelke (njena vloga je bila predvsem nadzor in koordinacija), razen na področju konkurenčnega prava. Z Aktom o umetni inteligenci Komisija pridobi veliko bolj praktična izvršilna orodja. Urad lahko preiskuje ponudnika temeljnih modelov, zahteva široko zbirko dokumentov (podobno kot v protimonopolnih preiskavah) orrick.com in celo izvaja simulirane kibernetske napade ali ocenjevanja AI modela za preizkus varnosti artificialintelligenceact.eu. Podjetja v takšni preiskavi lahko doživijo nekaj podobnega kot konkurenčno preiskavo, ki, kot pravijo analitiki iz Orricka, zna biti obremenilna z zahtevami po na tisoče dokumentih, tudi internih osnutkih orrick.com. Izkušnje Komisije z velikimi preiskavami kažejo, da bo v večje primere umetne inteligence vložila velike vire. To dviguje raven skladnosti za razvijalce AI, hkrati pa poudarja, da je EU resna glede centraliziranega izvrševanja pravil za temeljno umetno inteligenco, ki presega meje posameznih držav.
Nadzor nad visokorizično umetno inteligenco: Pri klasični visokorizični umetni inteligenci (npr. bančni sistem za določanje kreditne sposobnosti ali uporaba umetne inteligence v mestnem policijskem sistemu) ostajajo glavni izvršitelji nacionalni organi. Toda Urad za umetno inteligenco in Odbor za umetno inteligenco jih podpirata, zlasti če se pojavijo vprašanja, ki zadevajo več držav. Akt omogoča skupne preiskave, kjer več nacionalnih regulatorjev sodeluje (ob podpori Urada za umetno inteligenco), če tveganja AI sistema presegajo državne meje artificialintelligenceact.eu. To preprečuje, da bi se npr. AI, ki je v uporabi po celotni EU, obravnavala izolirano v eni državi, medtem ko so druge neobveščene.
Končno je vgrajen tudi pritožbeni in revizijski postopek: podjetja se lahko pritožijo zoper izvršilne odločitve prek nacionalnih sodišč (ali na koncu sodišč EU, če gre za odločitev Komisije), delovanje Akta pa bo predmet periodičnih pregledov. Do leta 2028 mora Komisija oceniti, kako delujeta Urad za umetno inteligenco in novi sistem artificialintelligenceact.eu, in vsakih nekaj let preveriti, ali je treba spremeniti kategorije tveganja ali sezname (Annex III itd.) artificialintelligenceact.eu. Takšno prilagodljivo upravljanje je ključno glede na hitro rast AI tehnologij – EU namerava pravila po potrebi stalno izboljševati.
Če povzamemo: Akt o umetni inteligenci EU bo uveljavljala mreža regulatorjev, kjer je evropski Urad za umetno inteligenco osrednje vozlišče za usmerjanje, usklajevanje in neposredni nadzor temeljnih modelov. Kazni so visoke – na papirju ene najvišjih v kateri koli tehnološki regulativi – kar jasno kaže, da neskladnost ni možnost. Organizacije si bodo želele vgraditi skladnost v svoje AI projekte že od začetka, namesto da bi tvegale takšne globe ali prisilno zaustavitev svojih AI sistemov.
Posebni vplivi po sektorjih in primeri uporabe
Vplivi Akta o umetni inteligenci se razlikujejo po industrijah, saj zakonodaja nekatere sektorje določa kot visokorizične. Tukaj povzemamo, kako so ključni sektorji – zdravstvo, finance, policija in izobraževanje – prizadeti:
- Zdravstvo in medicinske naprave: Umetna inteligenca ima velik potencial v medicini (od diagnosticiranja bolezni do robotsko podprte kirurgije), a so ti primeri uporabe po novem pogosto opredeljeni kot visoko tvegani. Vsaka AI komponenta regulirane medicinske naprave bo po definiciji visoko tvegana emergobyul.com. Na primer: orodje za umetno inteligenco pri radiologiji, ki analizira rentgenske slike, ali algoritem za predlaganje načrtov zdravljenja, bo moral izpolnjevati zahteve Akta poleg obstoječih zdravstvenih predpisov. Ponudniki takšne umetne inteligence bodo morali opraviti stroge postopke ugotavljanja skladnosti (verjetno v okviru postopkov za oznako CE pri medicinskih napravah). Zagotoviti morajo klinično kakovost in varnost, kar je skladno z določili Akta o natančnosti in zmanjševanju tveganj. Bolniki in zdravstveno osebje bodo imeli koristi od teh zaščitnih ukrepov – umetna inteligenca bo zanesljivejša in njene omejitve bodo pregledne. A razvijalci medicinske AI se bodo soočali z višjimi stroški raziskav in razvoja ter večjim dokumentacijskim bremenom za dokazovanje skladnosti. Sčasoma je tako pričakovati počasnejšo uvedbo novih AI inovacij v evropskem zdravstvu, dokler ne opravijo regulativnega pregleda goodwinlaw.com. Po drugi strani Akt spodbuja eksperimentiranje preko peskovnikov: bolnišnice, zagonska podjetja in regulatorji lahko skupaj pilotno testirajo AI sisteme (npr. AI pomoč pri diagnostiki), da zberejo dokaze o varnosti in učinkovitosti pred širšo uporabo. Do leta 2026 mora imeti vsaka članica EU vsaj en regulativni peskovnik za umetno inteligenco v zdravstvu artificialintelligenceact.eu. Skratka, zdravstvena umetna inteligenca v Evropi bo verjetno varnejša in bolj standardizirana, a proizvajalci bodo morali skladnost zelo pazljivo upravljati, da se izognejo zamudam pri uvajanju življenjsko pomembnih inovacij na trg.
- Finance in zavarovalništvo: Akt jasno razvršča veliko finančnih AI storitev v kategorijo visokega tveganja. Predvsem AI sistemi za ocenjevanje kreditne sposobnosti – npr. algoritmi, ki odločajo, ali prejmete posojilo ali po kateri obrestni meri – so označeni kot visokorizični, ker vplivajo na dostop do ključnih storitev digital-strategy.ec.europa.eu. Banke in fintech podjetja, ki uporabljajo umetno inteligenco za odobravanje posojil, kreditno točkovanje ali določanje zavarovalnih premij, bodo morala zagotoviti, da so ti sistemi nediskriminatorni, pojasnljivi in revidirani. Voditi bodo morali dokumentacijo o usposabljanju AI (npr. za dokaz, da ne diskriminira določenih etničnih skupin ali sosesk – znana težava določenih kreditnih modelov). Strankam bo koristila transparentnost: Akt sicer ne daje posamezniku neposredne pravice do razlage (kot GDPR), a zahteva jasne informacije za uporabnike, zato bi morali posojilodajalci obvestiti prosilce, če pri odločitvi pomaga AI – ter razložiti, kako približno deluje digital-strategy.ec.europa.eu. Še ena uporaba so AI sistemi za odkrivanje prevar in preprečevanje pranja denarja, ki lahko pridejo v kategorijo visokega tveganja (če vplivajo na temeljne pravice) ali pod omejene obveznosti transparentnosti. Finančna podjetja bodo potrebovala močne nadzorne postopke za svojo umetno inteligenco – to pomeni razširitev sistemov za upravljanje modelnih tveganj, da bodo skladna z Aktom. Na začetku bo nekaj stroškov skladnosti – npr. najem svetovalcev za test pristranskosti ali dodatna dokumentacija za modele – vendar bo rezultat bolj pravična in zaupanja vredna finančna umetna inteligenca. Stranke lahko pričakujejo zmanjšanje pristranskosti pri kreditiranju in vedenje, da je AI pod regulatornim nadzorom. Zavarovalnice, ki uporabljajo umetno inteligenco za ocenjevanje tveganj (npr. za izračun zavarovalnih premij v zdravstvu ali življenju), so prav tako pokrite v kategoriji visokega tveganja artificialintelligenceact.eu in se morajo izogibati nepravični diskriminaciji (npr. da AI neupravičeno zviša premije zaradi zaščitenih zdravstvenih lastnosti). Skupni cilj Akta je večja transparentnost in odgovornost umetne inteligence v financah, kar bo sčasoma verjetno povečalo zaupanje v AI-produkte.
- Policija in javna varnost: To je področje, kjer Akt zavzema zelo previdno stališče – zaradi velikih tveganj za državljanske svoboščine. Nekatere uporabe umetne inteligence v organih pregona so izrecno prepovedane kot nesprejemljive: na primer, AI za “družbeno točkovanje” ali napovedno policijsko delo na podlagi profiliranja je prepovedano artificialintelligenceact.eu artificialintelligenceact.eu. Prav tako je zelo odmevna uporaba prepoznavanja obrazov v realnem času na javnih mestih s strani policije prepovedana, razen v skrajnih nujnih primerih (tudi takrat pod strogimi pogoji) europarl.europa.eu. To pomeni, da evropske policije ne morejo preprosto začeti množične uporabe sistemov za spremljanje obrazov v živo preko javnih kamer – kar se morda dogaja kje drugje po svetu – razen v zelo ozko opredeljenih primerih resnih groženj in z dovoljenjem sodišča. Druge policijske tehnologije spadajo pod visoko tveganje, kar pomeni, da se lahko uporabljajo, a pod nadzorom. Na primer: AI sistem za analizo kriminalnih podatkov za razporejanje policistov ali sistem za ovrednotenje zanesljivosti dokazov oziroma profilov osumljencev šteje kot visokorizičen digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policija ali mejni organi bodo morali za take sisteme opraviti presojo vpliva na temeljne pravice in zagotoviti, da končne ključne odločitve sprejemajo ljudje, ne le umetna inteligenca. Obstajala bo EU podatkovna baza, v katero bo treba prijaviti vse visokorizične policijske AI sisteme, kar veča preglednost in omogoča javni nadzor (v določeni meri, saj so lahko podrobnosti občutljive). Izvršni organi bodo ugotavljali, da Akt prinaša več birokracije (pošiljanje dokumentacije, iskanje soglasja pri notificiranih telesih ipd.), kar lahko upočasni sprejemanje novih AI orodij. A cilj je preprečiti zlorabe – na primer, da algoritem “črne škatle” ne določa kazni ali koga bodo na meji označili kot sumljivo osebo brez možnosti pritožbe. Ena posebna prepoved velja za tehnologije za zaznavanje čustev na delovnih mestih ali v policiji: Akt prepoveduje AI, ki “prepoznava čustva” pri policijskih zaslišanjih, zaposlitvenih razgovorih, šolskih izpitih ipd., zaradi njihove invazivnosti in nezanesljivosti digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Tako se bo evropska policija najverjetneje osredotočala na AI, ki pomaga pri analizi podatkov in rutinskih nalogah pod človeškim nadzorom, in se odpovedala bolj distopičnim praksam, ki jih v drugih regijah še dopuščajo. V bistvu Akt išče ravnovesje: omogoča uporabo AI pri reševanju kriminala in večji javni varnosti, a ne na račun temeljnih pravic in svoboščin.
- Izobraževanje in zaposlovanje: AI sistemi, ki jih uporabljajo v izobraževanju, na primer programska oprema za ocenjevanje izpitov ali priporočanje šolskih mest, veljajo za visoko tvegane, ker lahko oblikujejo prihodnost učencev digital-strategy.ec.europa.eu. Šole ali podjetja za izobraževalno tehnologijo bodo morala poskrbeti, da so ti AI sistemi natančni in brez pristranskosti. Napačen AI, ki napačno ocenjuje določene skupine dijakov ali odpove ob izpitu, ima lahko življenjsko pomembne posledice – zato so visoko tvegani. Ministerstva in univerze bodo verjetno morala strožje preverjati ponudnike AI in voditi dokumentacijo za vse algoritme, ki vplivajo na sprejem ali ocenjevanje. Študenti morajo biti obveščeni, kdaj se uporablja umetna inteligenca (transparentnost), in imeti možnost pritožbe – v skladu z določbami o transparentnosti in človeškem nadzoru. V zaposlovanju pa je AI, ki pomaga pri zaposlovanju ali upravljanju kadrov (predselekcija življenjepisov, razvrščanje kandidatov, nadzor produktivnosti), prav tako visokorizična digital-strategy.ec.europa.eu. Podjetja, ki uporabljajo AI za zaposlovanje, bodo morala poskrbeti, da so te rešitve zasnovane in testirane na pravičnost (npr. da ne reproducirajo spolne pristranskosti pri zaposlovanju). Akt bi lahko povzročil precejšnje pretrese v industriji zaposlovalne tehnologije: nekatere avtomatizirane zaposlitvene platforme bodo morale biti nalezdno posodobljene ali bolj dokumentirane, da bodo zakonito uporabljene v EU, sicer se lahko podjetja vrnejo k bolj človeško usmerjenim postopkom, če njihova AI ne dosega standardov. Vsaj kandidati bodo verjetno začeli opažati obvestila: “Pri obdelavi vaše prijave je lahko uporabljena umetna inteligenca”, prav tako pa lahko zahtevajo ali pričakujejo razlago odločitev, v duhu transparentnosti. Pozitiven učinek je večja pravičnost in odgovornost pri zaposlovanju: umetna inteligenca ne bo več “skrivni vratar”, ampak sredstvo pod nadzorom. Izziv za kadrovske službe bo vpeljati te skladnostne kontrole, ne da bi s tem bistveno upočasnili ali zakomplicirali zaposlovanje. Spet lahko pomagajo regulativni peskovniki: start-up s HR tehnologijo lahko svojo rešitev za vrednotenje kandidatov preizkusi v peskovniku skupaj z regulatorji in dobi povratne informacije o izpolnjevanju zahtev pravičnosti, še preden izdelek uporabi v širšem obsegu.
V drugih sektorjih, ki v aktu niso izrecno imenovani, je vpliv odvisen od primerov uporabe. Na primer, kritično infrastrukturo (energetska omrežja, prometni sistemi), ki uporablja AI za optimizacijo delovanja, se šteje za visokorizično, če kakršna koli napaka ogroža varnost artificialintelligenceact.eu. Zato bodo morali upravljavci komunalnih storitev ali prometa certificirati svoje AI sisteme za vodenje procesov. Marketing in družbena omrežja (npr. algoritmi za ciljno oglaševanje ali priporočanje vsebin) so v veliki meri pod minimalnim ali omejenim tveganjem – jih direktno Akt bistveno ne regulira, čeprav lahko veljajo drugi zakoni (DSA itd.).
Eden izmed pomembnih sektorjev je potrošniško blago in robotika – če je AI vgrajena v potrošniške izdelke (igrače, gospodinjske aparate, vozila), začnejo veljati zakoni o varnosti izdelkov. Na primer, igrača na osnovi umetne inteligence, ki komunicira z otroki, je lahko visoko tvegana, še posebej, če bi lahko nevarno vplivala na otrokovo vedenje europarl.europa.eu. Zakon posebej prepoveduje igrače, ki uporabljajo glasovno umetno inteligenco za spodbujanje škodljivega vedenja pri otrocih europarl.europa.eu. Podjetja, ki razvijajo igrače in igre z uporabo umetne inteligence, morajo zato biti izjemno previdna glede vsebine in funkcionalnosti. Na splošno bodo panoge, ki se ukvarjajo z življenji, možnostmi ali pravicami ljudi, soočene z najpomembnejšimi novimi pravili. V teh sektorjih je pričakovati kulturni premik v smeri »etičnosti in skladnosti umetne inteligence« – z vlogami kot so uradniki za skladnost umetne inteligence ali ocenjevalci etike, ki bodo postali pogosti. Čeprav so sprva možne upočasnitve zaradi preverjanja in izboljšav sistemov, bi dolgoročno lahko prišlo do večjega javnega zaupanja v umetno inteligenco na teh področjih. Na primer, če starši verjamejo, da je umetna inteligenca, ki ocenjuje njihovega otroka, dobro nadzorovana glede pravičnosti, bodo verjetneje bolj odprti do umetne inteligence v izobraževanju.Vpliv na podjetja: MSP, zagonska podjetja in globalna podjetja
Zakon o umetni inteligenci EU bo vplival na organizacije vseh velikosti, od agilnih zagonskih podjetij do multinacionalnih tehnoloških velikanov, še posebej pa na vse, ki ponujajo izdelke ali storitve umetne inteligence v Evropi. Stroški in naloge za zagotavljanje skladnosti zagotovo ne bodo zanemarljivi, vendar Zakon vsebuje določbe, ki pomagajo ali prilagajajo obveznosti manjšim podjetjem, njegova eksteritorialna veljavnost pa pomeni, da morajo biti pozorna tudi globalna podjetja zunaj EU. Mala in srednje velika podjetja (MSP): MSP in zagonska podjetja so pogosto glavni inovatorji na področju umetne inteligence – ocenjuje se, da kar 75 % inovacij pri umetni inteligenci prihaja iz zagonskih podjetij seniorexecutive.com. EU se je zavedala nevarnosti, da bi stroški skladnosti preveč obremenili te akterje, zato Zakon vsebuje določbe, prijazne do MSP. Kot omenjeno, so kazni za kršitve za mala podjetja absolutno nižje v evrih orrick.com, s čimer se preprečujejo pogubne kazni za majhna podjetja. Še naprej, Zakon zapoveduje, da se za MSP zagotavljajo regulativna peskovnika brezplačno in s prednostnim dostopom thebarristergroup.co.uk. Ti peskovniki (delujoči do leta 2026 v vsaki državi članici) bodo omogočali zagonskim podjetjem testiranje AI sistemov pod nadzorom in prejemanje povratnih informacij o skladnosti brez strahu pred kaznimi med fazo testiranja. To je priložnost za iteracijo izdelka v sodelovanju z regulatorji – skladnost lahko tako postane manj ovira in bolj proces soustvarjanja. Poleg tega je Evropska komisija skupaj z Zakonom lansirala »AI Pakt« in druge podporne pobude digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI Pakt je prostovoljni program, ki podjetja vabi k zgodnjemu izpolnjevanju zahtev in deljenju dobrih praks, s poudarkom na pomoči predvsem manjšim akterjem pri pripravljenosti. Zakon tudi določa, da mora Urad za umetno inteligenco zagotoviti navodila, predloge in vire za MSP artificialintelligenceact.eu. Morda bomo tako dobili vzorčne načrte upravljanja tveganj ali kontrolne seznam dokumentacije, ki jih lahko uporabi 10-člansko zagonsko podjetje brez najema celotne pravne službe. Kljub tej podpori je pri mnogih zagonskih podjetjih še vedno prisotna skrb zaradi bremena skladnosti. Zahteve (kot je opisano prej), npr. sistemi za upravljanje kakovosti ali ocenjevanje skladnosti, so lahko zastrašujoče za mala podjetja z omejenim kadrom. Pojavljajo se skrbi, da bi se inovacije lahko upočasnile ali se geografsko preusmerile: če je pretežko lansirati izdelek umetne inteligence v Evropi, ga bo morda zagonsko podjetje najprej predstavilo drugje (npr. v ZDA) ali pa bodo vlagatelji raje izbirali regije z manj strogimi pravili seniorexecutive.com seniorexecutive.com. Kot je povedal en izmed direktorjev tehnološkega podjetja, jasna pravila dajejo samozavest, vendar pretirano restriktivna pravila »lahko potisnejo odlično, vredno raziskovanje drugam.« seniorexecutive.com. Nekateri ustanovitelji zagonskih podjetij Zakon ocenjujejo kot preveč širok in obremenjujoč ter se bojijo, da se bodo zagonska podjetja zaradi stroškov skladnosti odločala za selitev izven EU seniorexecutive.com. Za ublažitev teh težav so oblikovalci politik v EU napovedali, da bodo standardi in postopki skladnosti čim bolj poenostavljeni. Na primer, lahko bodo na voljo standardizirani moduli za ugotavljanje skladnosti, ki jih lahko uporabi tudi manjši ponudnik, ali certificiranje, kjer več MSP skupaj deli stroške. Tudi ideja o »razpisih za skladnost« oziroma subvencijah je bila predlagana s strani strokovnjakov – s preprostim ciljem, da bi podjetja prejela določeno sofinanciranje za izpolnjevanje novih zahtev seniorexecutive.com. Če bi tovrstne spodbude postale realnost (bodisi v EU ali na nacionalni ravni), bi bistveno olajšale breme. V vsakem primeru morajo MSP začeti z kartiranjem svojih sistemov umetne inteligence glede na kategorije tveganj in se osredotočiti na tista z visokim tveganjem. Mnoga zagonska podjetja bodo morda ugotovila, da je njihov izdelek pravzaprav minimalnega ali omejenega tveganja in tako potrebujejo le kakšno razkritje ali dva, ne pa celotnega sistema skladnosti. Za tista, ki delujejo na področjih z visokim tveganjem (npr. medicinska umetna inteligenca, AI za kadrovske postopke), bo ključno zgodnje sodelovanje z regulatorji (prek peskovnikov ali posvetovanj). Zakon izrecno spodbuja »pristop, naklonjen inovacijam« pri svoji uporabi – kar pomeni, da naj bi regulatorji upoštevali potrebe manjših akterjev in ne uporabljali kaznovalne logike »ena rešitev za vse«, še posebej na začetku seniorexecutive.com. Verjetno bo v praksi sledilo prehodno obdobje, v katerem bodo podjetja, ki se trudijo za skladnost, prej dobila usmeritve kot pa takojšnjo denarno kazen. Globalna podjetja in podjetja zunaj EU: Tako kot GDPR ima Zakon o umetni inteligenci eksteritorialni doseg. Če je sistem umetne inteligence ponujen na trgu EU ali se njegov rezultat uporablja v EU, pravila veljajo ne glede na to, kje se ponudnik nahaja artificialintelligenceact.eu. To pomeni, da ameriška, azijska ali druga mednarodna podjetja ne morejo ignorirati Zakona, če imajo uporabnike ali naročnike v EU. Silicijevodolsko podjetje, ki evropskim strankam prodaja orodje umetne inteligence za zaposlovanje, bo tako moralo zagotoviti, da to orodje izpolnjuje zahteve EU (sicer ga njihove EU stranke ne bodo mogle zakonito uporabljati). Za velika globalna tehnološka podjetja (Google, Microsoft, OpenAI itd.) Zakon že vpliva na njihovo vedenje. Še preden je bil zakon sprejet, so nekatera podjetja že začela ponujati več transparentnosti ali nadzora v svojih AI izdelkih v pričakovanju regulacije. Ponudniki generativne umetne inteligence razvijajo na primer orodja za označevanje rezultatov umetne inteligence, več jih javno objavlja podatke o učnih podatkih in omejitvah modelov pod pritiskom EU. Obstaja tudi argument, da bi lahko skladnost z Zakonom EU o umetni inteligenci postala konkurenčna prednost ali znak kakovosti – podobno kot pri »skladnosti z GDPR«, kjer so izdelki prepoznani kot prijazni do zasebnosti, bodo tudi proizvodi umetne inteligence z oznako »skladno z EU AI Act« lahko deležni večjega zaupanja po vsem svetu. Vendar pa morajo globalna podjetja uravnotežiti različne jurisdikcije. Pravila EU morda ne bodo popolnoma usklajena na primer z bodočimi zahtevami v ZDA. Nekatere ameriške zvezne države ali nacionalne smernice bodo morda v nasprotju z zahtevami EU ali bodo zahtevale drugačna poročanja. Mednarodna podjetja bodo zato morda standardizirana na najstrožji režim (pogosto prav EU), da se ohranijo poenoten pristop po svetu – to se je zgodilo tudi pri GDPR, kjer je mnogo podjetij pravice podaljšalo na svetovno raven. Pri AI je pričakovati, da bodo ponudniki poenotili EU prakse transparentnosti (npr. označevanje AI rezultatov) globalno zaradi doslednosti. Zakon lahko tako učinkovito izvaža »norme zaupanja vredne umetne inteligence« EU na druge trge, če bodo velika podjetja spremembe izvedla v vseh različicah svojih produktov. A kljub temu grozi razdrobljenost: če bodo druge regije ubrale drugačno pot, bodo morala globalna podjetja razvijati ločene različice ali funkcionalnosti za različne regije. Tako bo imel lahko AI program za EU poseben »način EU« z več zaščitnimi ukrepi. Sčasoma je to neučinkovito, zato se bodo okrepili pritiski za mednarodno usklajenost (več o tem v naslednjem poglavju). S korporativno strategijo bodo velika podjetja zagotovo vzpostavila ločene time za skladnost umetne inteligence (če jih še niso), ki bodo presojali vse njihove AI sisteme glede zahtev Zakona. Mogoče se bo začel razvijati tudi trg zunanjih AI presojevalnih družb, ki bodo ponujale storitve certificiranja – nov ekosistem, podoben presojam kibernetske varnosti – ki ga bodo uporabljala tako velika kot srednje velika podjetja za preverjanje skladnosti, še preden bi k njim potrkal uradni regulator.Druga posledica je na področju investicij: tako vlagatelji tveganega kapitala kot tudi podjetni kupci bodo izvajali skrbni pregled glede skladnosti z AI aktom. Startupom bodo morda investitorji zastavili vprašanje: »Je vaša ocena tveganja po AI aktu opravljena? Ste v peskovniku ali imate načrt za oznako CE, če je potrebna?« – podobno kot je skladnost z zasebnostjo postala obvezen element v postopkih zbiranja sredstev po uvedbi GDPR. Podjetja, ki lahko izkažejo skladnost, bodo lažje sklepala partnerstva in prodaje v Evropi, medtem ko bodo tista, ki tega ne morejo, videna kot bolj tvegana naložba.
Povzetek: za mala in srednja podjetja ter startupe je akt dvorezen meč – prinaša jasnost in morda konkurenčno prednost za rešitve “odgovorne umetne inteligence”, hkrati pa tudi dviguje prag za sodelovanje v določenih visoko tvegane panoge. Za globalna podjetja lahko akt dejansko postavi de facto globalni standard za upravljanje umetne inteligence (podobno kot je GDPR za varstvo podatkov), zato bodo morala podjetja te zahteve vključiti v razvoj svojega AI. EU upa, da bo z vzpostavitvijo zaupanja prek regulacije dejansko spodbudila uvajanje umetne inteligence – podjetja in potrošniki bi se lahko lažje odločili za uporabo AI, če bi vedeli, da je regulirana. Vse to pa drži le, če je skladnost dosegljiva; sicer bi se inovacije lahko preselile v manj regulirana okolja.
Posledice za inovacije, AI investicije in mednarodno usklajevanje
AI akt EU je sprožil obsežno razpravo o njegovem širšem vplivu na področje umetne inteligence – bo zavrl ali spodbudil inovacije? Kakšen bo njegov vpliv na globalno upravljanje umetne inteligence? Tu so nekateri ključni pričakovani učinki:
Inovacije: Zavora ali pospeševalec? Kritiki trdijo, da lahko stroga pravila akta, zlasti za visokorizično umetno inteligenco, upočasnijo eksperimentalne inovacije, še posebej za startupe, ki so gonilo najnaprednejšega razvoja seniorexecutive.com. Naloge skladnosti (dokumentacija, ocene itd.) lahko podaljšajo razvojne cikle in preusmerijo vire iz raziskav in razvoja. Na primer, ekipa, ki razvija AI, bi morala dodatne mesece nameniti preverjanju podatkov in pisanju poročil o skladnosti, preden izda produkt na trg. Obstaja skrb, da lahko pride do “odtoka inovacij”, ko najboljši talenti in podjetja raje izberejo regije z manj regulatornimi ovirami seniorexecutive.com. Če bo Evropa videna kot pretežko dostopna, bi lahko naslednji preboj na področju umetne inteligence nastal v ZDA ali Aziji in bil nato le prilagojen za evropski trg (ali celo sploh ne ponujen v Evropi).
Že smo bili priča, da so nekateri AI servisi (zlasti generativne AI aplikacije) geografsko blokirali uporabnike iz EU ali odložili evropske lansiranja zaradi regulatorne negotovosti. Če bo akt dolgoročno zaznan kot preveliko breme, obstaja tveganje, da Evropa zaostane pri uvajanju umetne inteligence v primerjavi z bolj sproščenimi okolji.
Po drugi strani pa veliko predstavnikov industrije meni, da lahko jasna pravila spodbujajo inovacije, ker zmanjšajo negotovost seniorexecutive.com. Akt ustvarja predvidljivo okolje – podjetja poznajo “pravila igre” in lahko inovirajo z zaupanjem, da če bodo upoštevali smernice, njihova umetna inteligenca kasneje ne bo prepovedana ali tarča javnega ogorčenja. Pogosto izpostavljena prednost je, da bo akt povečal javno zaupanje v umetno inteligenco, kar je ključnega pomena za sprejetje. Če bodo državljani zaupali, da je umetna inteligenca v Evropi preverjena glede varnosti in pravičnosti, bodo AI rešitve morda hitreje sprejeli, kar širi trg za AI izdelke. Podjetja pa bodo morda bolj pripravljena vlagati v AI projekte, če imajo na voljo okvir za skladnost, namesto strahu pred nereguliranim “divjim zahodom”, ki bi lahko vodil v škandale ali tožbe.
V bistvu želi akt doseči ravnovesje: uvaja trenje (nadzor, odgovornost) z namenom, da to prinese trajnostne inovacije na dolgi rok namesto kratkoročnih divjih prebojev brez meja. Uvedba peskovnikov in osredotočenost na mala in srednja podjetja kaže, da se EU zaveda, da preveč trenja = izgubljene inovacije, in se aktivno trudi to omiliti.
Obstaja tudi argument, da bi lahko etične inovacije umetne inteligence postale konkurenčna prednost. Evropska podjetja bi se lahko specializirala za umetno inteligenco, ki je že v zasnovi pregledna in na človeka osredinjena, kar jim daje prednost ob rasti globalnega povpraševanja po odgovorni umetni inteligenci. Že zdaj je področje AI etike in orodij za skladnost rastoči sektor – od programske opreme za zaznavanje pristranskosti do platform za dokumentacijo modelov – kar je delno posledica pričakovanih regulativ, kot je ta.
AI investicije: Kratkoročno so stroški skladnosti neka nova “davek” na razvoj umetne inteligence, kar bi lahko investitorje spodbudilo k nekoliko večji previdnosti ali k preusmerjanju sredstev v potrebe skladnosti. Nekateri VC in skladi zasebnega kapitala se bodo morda izogibali startupom v močno reguliranih AI segmentih, razen če imajo jasen načrt za skladnost (ali če potencial na trgu odtehta stroške skladnosti). Po drugi strani pa bi lahko videli povečano vlaganje v določena področja:
- RegTech za AI: Podjetja, ki ponujajo rešitve za pomagati skladnosti z AI aktom (npr. storitve revizije AI, avtomatizacija dokumentacije, orodja za spremljanje modelov), bi lahko doživela razcvet naložb, saj povpraševanje po njihovih produktih raste.
- AI zanesljivost in standardi: Lahko pride do financiranja AI projektov, ki lahko dosegajo ali presegajo regulativne zahteve in tako izstopajo na trgu. Na primer, AI model, ki je dokazljivo razložljiv in pravičen, bo morda privlačil kupce in investitorje s svojim “vnaprej zasnovanim skladnostjo”.
Sama EU usmerja investicije v raziskave in inovacije umetne inteligence, skladne z zaupanjem. Prek programov, kot sta Horizon Europe in Digital Europe Programme, se sredstva vlagajo v AI projekte, ki poudarjajo preglednost, robustnost in skladnost z evropskimi vrednotami. Javni denar se tako usmerja v to, da inovacije ne zamrejo, temveč se odvijajo po vnaprej določenih smernicah.
Eden možnih izidov je, da bodo nekatere AI niše v Evropi uspevale (tiste, ki se zlahka prilagodijo pravilom, npr. AI za zdravstvo, kjer je varnost dokazljiva prednost), medtem ko bodo druge zaostajale (npr. AI za moderiranje vsebin na družbenih omrežjih, če bo ocenjena kot preveč tvegana ali kompleksna za skladnost – zgolj hipotetično). Morda bomo videli tudi premik od umetne inteligence, usmerjene neposredno na potrošnika, k poslovnim rešitvam za podjetja (B2B) – saj bi lahko AI, ki je namenjena potrošnikom, povzročila večje regulativne preglede (še posebno, če lahko vpliva na vedenje), medtem ko je notranja uporaba AI v podjetjih lažje obvladljiva z vidika skladnosti.
Globalno usklajevanje ali razdrobljenost: Mednarodno je AI akt EU pod drobnogledom. Res se lahko spremeni v predlogo, ki jo prevzamejo tudi druge demokracije. Brazilija je že sprejela zakon z modelom upravljanja tveganj v slogu EU cimplifi.com, države kot Kanada pa imajo osnutke zakonov (AIDA), ki se osredotočajo na visokoučinkovito AI in zmanjšanje tveganj cimplifi.com. Ti ukrepi so pod vplivom evropskega pristopa. Če več jurisdikcij sprejme podobne okvire, se približujemo usklajevanju – kar je za podjetja, ki razvijajo AI, pozitivno, saj pomeni manj različnih pravil za skladnost.
Vendar pa ne sledijo vsi natanko istemu vzoru. Združeno kraljestvo se je doslej zavestno odločilo za lažji, na načelih temelječ pristop, namesto enotnega zakona raje izdajajo smernice po posameznih sektorjih cimplifi.com. Združeno kraljestvo daje prednost inovacijam in izpostavlja, da ne želi preveč regulirati razvijajoče se tehnologije. Morda bodo kasneje uvedli svoj lastni akt o umetni inteligenci, vendar bo ta verjetno manj predpisujoč od evropskega. Japonska in nekatere druge države so tudi napovedale mehkejši pristop, osredotočen na prostovoljno upravljanje in etična načela namesto zavezujočih pravil.
V Združenih državah Amerike trenutno ni zveznega zakona o umetni inteligenci, primerljivega evropskemu aktu. Namesto tega je ZDA izdala nezavezujoč Načrt (Blueprint) za listino pravic v AI, ki opredeljuje široka načela, kot so varnost, nediskriminacija, zasebnost podatkov, transparentnost in človeške alternative weforum.org, vendar gre bolj za smernice kot za uveljavljiv zakon. V ZDA je bolj verjetno, da se bodo sprejele sektorske AI regulative (npr. FDA za AI v medicini, ali finančni regulatorji za AI v bančništvu) ter zanašanje na obstoječe zakone za vprašanja, kot so diskriminacija ali odgovornost. Konec leta 2023 in v letu 2024 so ZDA pospešile dejavnosti – vlada predsednika Bidna je izdala izvršni ukaz o umetni inteligenci (oktober 2023), ki med drugim zahteva, da razvijalci zelo naprednih modelov delijo rezultate varnostnih testov z vlado in ureja področja, kot sta biološka varnost in državljanske pravice. A to je izvršna uredba, ne zakonodaja. Medtem potekajo v ameriškem kongresu razprave ter predstavljajo predloge zakonov, vendar do sredine 2025 še noben ni bil sprejet. Verjeten scenarij za ZDA je krpanka: nekatere zvezne države imajo lastne AI zakone (npr. zahtevo po transparentnosti za globoke ponaredke/“deepfake” ali pravila o AI orodjih za zaposlovanje), zvezne agencije pa uporabljajo obstoječo zakonodajo (FTC spremlja morebitne nepoštene prakse, EEOC diskriminatorno zaposlovanje prek AI itd.), ne pa enotnega celovitega zakona.
To pomeni, da se podjetja trenutno soočajo z raznolikimi regulatornimi okviri: stroga pravila v EU, ohlapnejše (a razvijajoče se) v ZDA in različne modele drugje. Medijska analiza Senior Executive napoveduje, da bodo ZDA ostale pri sektorski strategiji za ohranjanje konkurenčne prednosti, Kitajska pa bo še naprej izvajala stroge nadzorne ukrepe, druge države, kot so Velika Britanija, Kanada in Avstralija, pa bodo sledile bolj prilagodljivim smernicam seniorexecutive.com. Ta raznolikost prinaša izzive – podjetja bodo morala svoja AI orodja prilagajati pričakovanjem posameznih regij, kar je neučinkovito in drago ter lahko upočasni globalno uvajanje umetne inteligence, saj bo vsakič treba preveriti skladnost z večimi okviri.
Na pozitivni strani obstajajo aktivna prizadevanja za mednarodno usklajevanje: EU in ZDA imata v okviru Sveta za trgovino in tehnologijo delovno skupino za umetno inteligenco, ki išče skupna izhodišča (dosedanji fokus so bile teme, kot so terminologija in standardi umetne inteligence). Skupina G7 je sredi leta 2023 začela hirošimski proces umetne inteligence, kjer razpravlja o globalnem upravljanju umetne inteligence. Ena od izpostavljenih idej je bila tudi razvoj kodeksa ravnanja za podjetja umetne inteligence na mednarodni ravni. Organizacije, kot sta OECD in UNESCO, so sprejele načela glede umetne inteligence, ki jim je marsikatera država (tudi ZDA, EU, celo Kitajska v primeru OECD) formalno pristopila – ta načela pokrivajo dobro poznana področja (poštenost, transparentnost, odgovornost). Upanje je, da bi lahko ta načela postala izhodiščna osnova za uskladitev regulativ.
Na dolgi rok nekateri menijo, da lahko pride do konvergence k osrednjim načelom, četudi se bodo pravni mehanizmi razlikovali seniorexecutive.com. Skoraj vsi se na primer strinjajo, da umetna inteligenca ne sme biti nevarna ali odkrito diskriminatorna – načini doseganja teh pričakovanj se lahko razlikujejo, a rezultat (varnejša, bolj poštena umetna inteligenca) je skupni cilj. Možno je, da bodo skozi dialog in morda mednarodne sporazume sprejeli delno harmonizacijo. Fragmentiran začetek bi tako sčasoma lahko vodil do bolj poenotenega sklopa norm seniorexecutive.com, še posebej, ker se tehnologija umetne inteligence globalizira (težko je vsiliti geografske meje v povezanem svetu).
Vodenje in konkurenca na področju umetne inteligence: Prisoten je tudi geopolitični vidik. EU se postavlja kot voditeljica na področju etičnega upravljanja umetne inteligence. Če njen model pridobi globalno podporo, bi lahko imela EU vpliv pri postavljanju standardov (podobno kot je bilo pri GDPR in zaščiti podatkov). Če pa bi bil Akt dojet kot ovira za evropsko industrijo umetne inteligence, medtem ko druge regije napredujejo, bi lahko EU očitali samozadostno ustvarjanje konkurenčnih slabosti. Ameriška tehnološka podjetja vodijo na številnih področjih umetne inteligence, Kitajska v umetno inteligenco močno vlaga. Evropska stava je, da bo zanesljiva umetna inteligenca dolgoročno premagala neurejeno umetno inteligenco, a to še ostaja odprto.
Zgodnji znaki v letu 2025 kažejo na oboje: nekatera podjetja z umetno inteligenco izražajo, da jih evropska pravila spodbujajo k razvoju boljših notranjih kontrol (pozitivno), druga pa so nekatere storitve v Evropi zamrznila (negativno). Prav tako vidimo, da se mednarodna podjetja vključujejo v dialog z evropskimi regulatorji – glavni laboratoriji za umetno inteligenco so se denimo že dogovarjali z EU, kako implementirati označevanje vsebine, ustvarjene z umetno inteligenco (vodni žig), kar kaže, da Akt že vpliva na zasnovo njihovih globalnih produktov.
Z naložbenega in raziskovalnega vidika lahko pričakujemo več raziskav umetne inteligence na področjih, kot so pojasnjevanje, zmanjševanje pristranskosti in preverjanje, saj bodo te rešitve nujne za skladnost s pravili. EU veliko vlaga v te raziskave, kar bi lahko sprožilo preboje, ki naredijo umetno inteligenco tudi sicer varnejšo in lažjo za regulacijo (npr. nove tehnike razlage nevronskih mrež). Če bodo ti preboji uspeli, bodo koristili vsem, ne le Evropi.
Povzetek: Akt EU o umetni inteligenci je drzen regulativni eksperiment, ki lahko postavi globalen standard za urejanje umetne inteligence ali – če bo napačno kalibriran – ogrozi evropski ekosistem umetne inteligence. Najverjetneje pa bo imel močan oblikovalni vpliv: inovacije na področju umetne inteligence se ne bodo ustavile, le prilagodile se bodo novim regulativnim okvirjem. Podjetja in vlagatelji že prilagajajo strategije — gradijo skladnost v razvoj produktov, upoštevajo stroške poslovanja v EU, nekateri pa selijo fokus na nižje rizične aplikacije ali na druga tržišča. Na mednarodnem prizorišču smo na razpotju: bo svet sledil evropskemu zgledu (in s tem doživel bolj enotne globalne standarde), ali pa se bo umetna inteligenca razvijala po različnih regulativnih filozofijah? Naslednja leta, ko bodo določbe Akta povsem zaživele in bodo ostale države reagirale, bodo ključna.
Globalna pravila AI: Akt EU v primerjavi z ZDA, Kitajsko (in drugimi)
Akt EU o umetni inteligenci ne obstaja v izolaciji – je del širšega globalnega gibanja, ki skuša nasloviti izzive AI. Primerjajmo ga s pristopi v Združenih državah Amerike in na Kitajskem, dveh drugih supermočeh umetne inteligence z zelo različnimi regulativnimi filozofijami, obenem pa omenimo še nekaj drugih:
Združene države Amerike (Načrt za Listino pravic umetne inteligence & nastajajoče politike): ZDA so doslej ubrale manj centraliziran in bolj načelni pristop. Oktobra 2022 je Urad Bele hiše za znanost in tehnologijo objavil Načrt za Listino pravic umetne inteligence, ki vsebuje pet vodilnih načel za oblikovanje in uporabo avtomatiziranih sistemov weforum.org:
- Varni in učinkoviti sistemi – Američani morajo biti zaščiteni pred nevarnimi ali nepravilno delujočimi sistemi umetne inteligence (npr. umetna inteligenca mora biti testirana in spremljana, da se preveri njena učinkovitost za želeni namen) weforum.org.
- Zaščita pred algoritmično diskriminacijo – Sistemi umetne inteligence ne smejo diskriminirati in morajo biti uporabljeni na pravične načine weforum.org. Načelo temelji na veljavni zakonodaji o državljanskih pravicah; skratka, AI ne sme postati izgovor za diskriminacijo tam, kjer bi bilo to pri človeški odločitvi nezakonito.
- Varstvo podatkov – Posamezniki morajo imeti nadzor nad tem, kako se njihovi podatki uporabljajo v umetni inteligenci in morajo biti zaščiteni pred zlorabami weforum.org. Načelo ne predstavlja nove zakonodaje o zasebnosti, ampak poudarja, da ne sme umetna inteligenca posegati v zasebnost in naj uporablja le nujne podatke.
- Obvestilo in pojasnilo – Posamezniki morajo biti obveščeni, kadar se uporablja AI sistem, ter imeti možnost razumeti, zakaj je AI sprejela pomembno odločitev weforum.org. To načelo poudarja transparentnost in pojasnjevanje, podobno kot pri EU.
- Človeške alternative, presoja in možnost pritožbe – Kadar je to primerno, mora biti zagotovljena možnost izključitve iz uporabe umetne inteligence ali človeškega posega weforum.org. Če vam na primer umetna inteligenca nekaj pomembnega odreče (recimo posojilo), morate imeti možnost pritožbe ali dodatnega pregleda s strani človeka.
Ta načela odražajo številne cilje Akta EU (varnost, pravičnost, transparentnost, človeški nadzor), a ključna razlika je, da lista pravic AI v ZDA ni zakon – gre za politični okvir brez zavezujoče pravne moči weforum.org. Trenutno velja predvsem za zvezne agencije in usmerja, kako naj država uporablja umetno inteligenco. Obstaja pričakovanje, da bo postal zgled tudi zasebnemu sektorju, nekatera podjetja ta načela že podpirajo. Toda spoštovanje ni obvezno; nobenih kazni ni neposredno vezanih na listo pravic AI.
Poleg tega ZDA trenutno uporabljajo obstoječe zakone za sankcioniranje hujših zlorab AI. Komisija za zvezno trgovino (FTC) je opozorila podjetja, da lahko kaznuje nepoštene ali zavajujoče prakse v zvezi z umetno inteligenco (na primer napačne trditve glede zmogljivosti umetne inteligence ali škodljive uporabe za potrošnike). Komisija za enake možnosti zaposlovanja (EEOC) preučuje, kako se zakonodaja o zaposlovanju uporablja na orodjih umetne inteligence pri zaposlovanju – na primer, če AI sistematično zavrača starejše kandidate, je to lahko kršitev protidiskriminacijskih zakonov. Torej, izvaja se nadzor tudi v ZDA, a zgolj skozi splošno zakonodajo, ne pa z ločenimi zakoni za umetno inteligenco.
Pa vendar se tudi v ZDA začnejo kazati spremembe. V letih 2023-2024 se je v Kongresu resneje razpravljalo o regulaciji umetne inteligence zaradi bliskovitega napredka generativne umetne inteligence. Predstavljenih je bilo več zakonov (od označevanja deepfake vsebin do transparentnosti umetne inteligence in sistema odgovornosti), a še noben ni bil sprejet. Govori se o vzpostavitvi zveznega inštituta za varno umetno inteligenco ali dodelitvi novih pristojnosti državni upravi za nadzor umetne inteligence. Verjetno bodo ZDA v prihodnje razvile bolj konkretne predpise o umetni inteligenci, a verjetno bolj ciljno, ne po zgledu celovite evropske zakonodaje. Regulacija v ZDA je namreč običajno sektorska – npr. umetna inteligenca v zdravstvu mora ustrezati smernicam FDA, ki je že izdala smernice o “programski opremi kot medicinski napravi”, ki pokriva določene AI algoritme. Drug primer: finančni regulatorji (kot sta CFPB ali OCC) se zanimajo za modele umetne inteligence pri ocenjevanju kreditne sposobnosti in bi lahko uveljavljali poštenost na temelju veljavne finančne zakonodaje.
Ena od neposrednih potez v ZDA so ukrepi za nacionalno varnost: nedavna izvršna uredba zahteva, da morajo razvijalci naprednih modelov AI deliti rezultate varnostnih testov z vlado, če bi modeli lahko pomenili tveganje za nacionalno varnost (npr. modeliranje nevarnih bioloških agensov). To je bolj fokusiran pristop od evropskega, ki nima posebne izjeme za nacionalno varnost zunaj uporabe v kazenskem pregonu.
Povzetek: ameriški pristop je trenutno zmeren in temelji na načelih, z velikim poudarkom na inovacijah in obstoječi zakonodaji. Podjetja so spodbujena (a ne prisiljena), naj sledijo etičnim vodilom. Razlika z EU je v tem, da EU ta načela predpisuje po zakonu in jih preverja z revizijami ter kaznimi, ZDA pa jih trenutno uporabljajo kot priporočila ter se (zaenkrat) zanašajo na tržno dinamiko in splošno zakonodajo. Ključno vprašanje je, ali se bodo ZDA bolj približale EU (na primer s sprejemom lastnega Akta o umetni inteligenci). V ZDA se pojavljajo glasovi za strožjo regulacijo zaradi konkurenčnosti in zaupanja javnosti, prav tako pa glasovi proti, ki svarijo pred prekomerno regulacijo. Možno je, da bodo ZDA našle srednjo pot: npr. zahtevati transparentnost za določene kritične sisteme AI ali certificiranje umetne inteligence za občutljive primere uporabe, ne pa uvedbo popolne sheme razredov tveganja.
Kitajska pravila in standardi o umetni inteligenci: Kitajska ima zelo drugačen politični sistem in njeno upravljanje umetne inteligence odraža njene prioritete: družbena stabilnost, nadzor nad informacijami in strateško vodstvo na področju umetne inteligence. Kitajska hitro širi svoj regulativni okvir, njen pristop pa je strog predvsem pri vsebini in uporabi, pogosto pa ga izvajajo preko upravnih pravil.
Ključni elementi kitajskega pristopa vključujejo:
- Obvezen pregled in cenzura vsebin umetne inteligence: Avgusta 2023 je Kitajska uvedla začasne ukrepe za storitve generativne umetne inteligence cimplifi.com. Ta pravila zahtevajo, da mora vsa javno ponujena generativna umetna inteligenca (na primer klepetalniki ali generatorji slik) zagotavljati, da je vsebina v skladu s temelnimi socialističnimi vrednotami ter zakonita in resnična. Ponudniki morajo proaktivno filtrirati prepovedano vsebino (vse, kar bi pod kitajskim režimom cenzure lahko veljalo za subverzivno, obsceno ali kako drugače nezakonito). To pomeni, da kitajska podjetja umetne inteligence vgrajujejo robustno moderiranje vsebin. Pravila tudi zahtevajo označevanje vsebine, ki jo ustvari umetna inteligenca, kadar bi lahko zmedla ljudi glede tega, kaj je resnično cimplifi.com. Zelo podobno kot v EU, kjer je zahtevana oznaka za deepfake vsebine, a na Kitajskem je to opredeljeno kot način za preprečevanje dezinformacij, ki bi lahko povzročile družbeni nered.
- Registracija algoritmov: Še pred pravili za generativno umetno inteligenco je Kitajska uvedla predpise za priporočilne algoritme (veljajo od začetka leta 2022). Podjetja morajo registrirati svoje algoritme pri kitajski upravi za kibernetski prostor (CAC) in predložiti informacije o njihovem delovanju. Osrednji register je mišljen za nadzor; oblasti želijo vedeti, kateri algoritmi so v uporabi, posebej tisti, ki vplivajo na javno mnenje (npr. algoritmi novičarskih virov).
- Overjanje z resničnimi imeni in nadzor nad podatki: Kitajski predpisi pogosto zahtevajo, da se uporabniki storitev umetne inteligence registrirajo s svojo pravo identiteto (da bi preprečili zlorabe in omogočili sledenje, kdo je ustvaril določeno vsebino). Podatki, ki se uporabljajo za učenje umetne inteligence, posebej tisti z osebnimi podatki, so predmet kitajskega zakona o varnosti podatkov in zakona o zaščiti osebnih podatkov. Podjetja na Kitajskem se tako morajo prilagajati tudi zahtevam oblasti po dostopu do podatkov in algoritmov (vlada lahko zaradi varnosti zahteva dostop).
- Varnostne ocene: V letih 2024–2025 je kitajski organ za standarde (NISSTC) izdal osnutek varnostnih smernic za generativno umetno inteligenco cimplifi.com. Vsebujejo tehnične ukrepe za ravnanje s podatki za učenje, varnost modelov itd., skladno z vladnim poudarkom na umetni inteligenci, ki je ni mogoče zlahka zlorabiti ali ustvarjati prepovedanih vsebin. Marca 2025 je CAC dokončno sprejela ukrepe za označevanje vsebin, ki jih generira umetna inteligenca (kot omenjeno), ki bodo od septembra 2025 naprej zahtevali jasno označevanje vseh tovrstnih vsebin cimplifi.com. To se prekriva s podobnim pravilom EU, a je kitajski razlog tudi boj proti »govoricam« in nadzor nad informacijami.
- Široki etični okviri: Kitajska je objavila tudi načelna načela – denimo leta 2021 je ministrstvo za znanost in tehnologijo izdalo etične smernice za umetno inteligenco, ki poudarjajo človeku osredotočen pristop in nadzorljivost. Leta 2022 je Nacionalni odbor za upravljanje umetne inteligence (večdeležniška skupina) izdal dokument Načela upravljanja umetne inteligence, ki izpostavlja harmonijo, pravičnost in preglednost. Leta 2023 pa je Kitajska izdala okvir za varno upravljanje umetne inteligence usklajen s svojo globalno pobudo o umetni inteligenci, ki poudarja pristop osredotočen na človeka in kategorizacijo tveganj cimplifi.com. Ta načela nekoliko spominjajo na načela OECD ali EU, kar kaže, da želi Kitajska veljati za promotorja “odgovorne umetne inteligence”, a znotraj svojega okvirja (npr. pravičnost na Kitajskem lahko pomeni preprečevanje diskriminacije etničnih manjšin, hkrati pa tudi zagotavljanje, da umetna inteligenca ne ogroža narodne enotnosti).
- Strogo izvrševanje za potrebe organov pregona (ali zlorabe): Medtem ko EU prepoveduje številne aplikacije biometrije v realnem času, je Kitajska vodilna pri uvajanju nadzora z umetno inteligenco (na primer prepoznavanje obrazov v javnosti, »pametno mesto« nadzor itd.). Obstajajo sicer nekateri predpisi, ki naj bi zagotavljali, da policija uporablja umetno inteligenco za varnost in pod nadzorom, a država ima splošno velik manevrski prostor. Sistem družbenega kredita obstaja v osnovni obliki (večinoma finančni kreditni in sodni sistem), ni pa tako znanstveno fantastičen, kot si marsikdo misli, in EU odkrito prepoveduje t.i. “social scoring”.
Dejansko so kitajski predpisi zelo strogi pri nadzoru vsebin in etičnih smernicah, a so uvedeni od zgoraj navzdol. Če je Akt EU o umetni inteligenci namenjen opolnomočenju posameznikov in odgovornosti postopkov, je kitajski pristop usmerjen v nadzor ponudnikov in zagotavljanje, da umetna inteligenca ne ogrozi državnih ciljev. Za podjetja skladnost na Kitajskem pomeni tesno sodelovanje z oblastmi, vgradnjo cenzurnih in poročilnih funkcij ter usklajenost z nacionalnimi cilji (npr. uporaba umetne inteligence za gospodarski razvoj, ne pa za nestrinjanje z oblastjo).
Lahko bi rekli, da je kitajski režim “strog, a drugačen”: ne poudarja javne preglednosti (povprečen kitajski uporabnik verjetno ne dobi pojasnila, zakaj je bila odločitev umetne inteligence takšna), poudarja pa sledljivost in vladno preglednost nad sistemi umetne inteligence. Neposredno tudi prepoveduje rabe, ki so v Zahodnih državah morda do neke mere dovoljene (denimo določene oblike političnega govora z umetno inteligenco).
Kitajska podjetja umetne inteligence, kot sta Baidu ali Alibaba, so morala umakniti ali ponovno uriti modele, ki so ustvarjali politično občutljive izhode. Razvoj velikih modelov v Kitajski je močno odvisen od teh pravil – predhodno filtrirajo podatke za učenje, da izločijo tabu teme, in modele dodatno prilagajajo, da preprečijo določene vsebine.
Zanimivo je, da se nekateri kitajski zahtevki (npr. označevanje deepfake vsebin) prekrivajo z evropskimi, čeprav iz nekoliko drugih razlogov. To nakazuje možno konvergenco tehničnih standardov – označevanje medijev, ki jih ustvari umetna inteligenca, bi lahko postalo svetovni standard, četudi so motivacije različne (EU: zaščita pred zavajanjem; Kitajska: to in nadzor nad informacijami).
Druge države: Poleg teh treh velja omeniti še:
- Kanada: Kot omenjeno, je Kanada predlagala zakon o umetni inteligenci in podatkih (AIDA) v okviru zakona C-27 cimplifi.com. Ciljal je na »visoko vplivne« sisteme umetne inteligence z zahtevami za ocenjevanje vpliva in nekaterimi prepovedmi. Ta zakon pa je obstal (v začetku 2025 ni bil sprejet, dejansko je “umrl” v parlamentu cimplifi.com). Kanada ga lahko še obudi. V vmesnem času se drži načel, ki jih zagovarja kot članica organizacij, kot je OECD.
- Združeno kraljestvo: Velika Britanija, ki se razlikuje od EU, je objavila belo knjigo o regulaciji umetne inteligence (marec 2023), v kateri je poudarek na inovacijah in milejših pravilih. Načrt Združenega kraljestva je, da obstoječi regulatorji (npr. izvršni organ za zdravje in varnost, agencija za finančni nadzor itd.) izdajo smernice za umetno inteligenco, povezane z njihovimi sektorji, na podlagi skupnih načel (varnost, preglednost, pravičnost, odgovornost, možnost izpodbijanja) cimplifi.com. Namenoma so se odločili, da takoj ne bodo sprejemali posebnega zakona o umetni inteligenci. ZK spremlja, kako bo deloval Akt EU, in bi se lahko prilagodila, a želi ohraniti fleksibilnost, da pritegne AI posle. Prav tako so organizirali Vrhm umetne inteligence za varnost (nov. 2023), da se vključijo v svetovne razprave o umetni inteligenci. Pristop ZK morda pomeni manj omejitev kratkoročno, a bi se lahko spremenil, če bodo tveganja postala resnična.
- Ostali v okolici EU: Svet Evrope (ki je širši kot EU) pripravlja konvencijo o umetni inteligenci, ki bi lahko postala pravno zavezujoča pogodba o etiki umetne inteligence in človekovih pravicah – še je v pripravi, a če bo sprejeta, bo lahko zavezovala podpisnice (tudi nekatere ne-EU evropske države) k načelom podobnim kot Akt EU, a na višji ravni.
- Indija, Avstralija itd.: Veliko držav je objavilo smernice za etiko umetne inteligence. Indija ima na primer okvirni pristop in bolj podpira inovacije, trenutno ne načrtuje posebnega zakona o umetni inteligenci, temveč se osredotoča na gradnjo kapacitet in posamične sektorske smernice. Avstralija razvija okvirje glede na tveganja, a še verjetno brez trdega zakona. Splošni trend je vsak prepoznava potrebo po upravljanju umetne inteligence, a kako trda bo regulacija v primerjavi z mehkim usmerjanjem, se razlikuje med državami.
- Svetovna prizorišča: Priporočilo UNESCO o etiki umetne inteligence (2021) je podprlo skoraj 200 držav in zajema načela kot so sorazmernost, varnost, pravičnost itd. Priporočilo ni zavezujoče, a kaže svetovni konsenz o vrednotah. Podobno so bile široko sprejete tudi načela OECD za umetno inteligenco (2019), ki so vplivala tudi na G20. Ta načela so »na papirju« zelo skladna z evropskim pristopom. Izziv je le, kako doseči podobno prakso čez meje.
World Economic Forum in druge skupine prav tako spodbujajo dialoge. Kot piše v članku WEF, ostaja odprto vprašanje, ali smo v scenariju »razhajanja poti« (kjer gredo ZDA, Kitajska in EU vsak po svoji poti regulacije) ali pa bomo videli »dominov učinek«, kjer bo evropski pristop spodbudil druge države k sledenju weforum.org seniorexecutive.com. Obstajajo dokazi za oboje: EU je očitno vplivala na Brazilijo in Kanado; ZDA so zaradi evropskega pritiska morda nekoliko omilile svoj pristop (npr. razprava o večji preglednosti je lahko posledica evropskega pritiska); Kitajska je le deloma usklajena (so skupne tehnične standardne ideje, ne pa tudi demokratičnega vidika).
Povzetek: Poenostavljena primerjava bi lahko bila:
- EU: Celovita, pravno zavezujoča ureditev preko sektorjev, temelji na tveganju; poudarek na temeljnih pravicah, strogo uveljavljanje (globe, nadzorni organi).
- ZDA: Noben vseobsegajoč zakon (stanje 2025); zanašanje na splošna načela (Zakon o pravicah za umetno inteligenco) in sektorsko uveljavljanje; poudarek na inovacijah in obstoječih okvirih pravic; za zdaj več industrijske samoregulacije.
- Kitajska: Podrobna vladna pravila za nadzor izhodov in uporabe umetne inteligence; poudarek na varnosti, cenzuri in državnem nadzoru; obvezno spoštovanje etičnih norm, ki jih določa država; uveljavitev preko državnih agencij z ostrimi kaznimi (tudi kazenskimi, če kršijo državna pravila).
Kljub razlikam vse tri prepoznavajo vprašanja, kot so pristranskost, varnost in transparentnost – le da jih različno postavljajo po prioritetah in uveljavljajo. Za globalno podjetje to pomeni navigacijo med tremi režimi: spoštovati proceduralno strogo ureditev EU, upoštevati smernice ZDA in nove državne predpise, ter vpeljati vsebinska pravila in zahteve za registracijo na Kitajskem, če tam poslujejo. To je zahtevno, zato bo v mednarodnih forumih pritisk, da bi zmanjšali breme z usklajevanjem določenih vidikov (na primer razvoj skupnih tehničnih standardov za upravljanje tveganj umetne inteligence, ki bi zadovoljili regulatorje v več jurisdikcijah).
Obetaven znak: sodelovanje na področju standardov za umetno inteligenco (tehnični standardi preko ISO/IEC ali drugih organov) bi lahko podjetju omogočilo razvoj umetne inteligence po enotnih specifikacijah, ki bi bile nato splošno sprejete. Zakon EU celo omenja, da bo spoštovanje usklajenih evropskih standardov (ko bodo obstajali za umetno inteligenco) pomenilo domnevo skladnosti artificialintelligenceact.eu. Če bodo ti standardi usklajeni z globalnimi, bo podjetje lahko »zgradilo enkrat, spoštovalo globalno«.
Na koncu, če pogledamo naprej: ko se bo tehnologija umetne inteligence razvijala (z rečmi kot GPT-5 ali bolj avtonomnimi sistemi), se bodo razvijale tudi regulative. EU je v svoj zakon vgradila mehanizme za pregled in posodabljanje. ZDA ali druge države lahko uvedejo nove zakone v primeru večjih incidentov z AI (podobno kot so nekateri vdori podatkov spodbudili strožje zakone o zasebnosti). Mednarodno usklajevanje bo morda nujno tudi, če bo AI začela imeti občutne čezmejne učinke (na primer AI-sprožen finančni zlom), kar bo države spodbudilo k skupnemu upravljanju.
Zaenkrat mora vsaka organizacija, ki želi »ostati pred drugimi« na področju umetne inteligence, spremljati vse te fronte: skladnost z evropskimi pravili je nujna za dostop do trga EU, najboljše prakse iz ZDA so ključnega pomena za tamkajšnji velik trg, razumevanje kitajskih zahtev pa je bistveno za poslovanje na Kitajskem. Proaktivni pristop – vgradnja etičnih in varnih načel umetne inteligence v samo podjetje – bo podjetje dobro pripravilo na obvladovanje teh različnih režimov. To pogosto pomeni vzpostavitev notranjega okvira za upravljanje umetne inteligence, ki dosega najstrožje standarde med temi (pogosto iz EU), nato pa prilagoditve po regijah po potrebi.
Zaključno: Zakon EU o umetni inteligenci s 2025 postavlja tempo v regulaciji AI, kar prinaša izzive, a tudi strukturirano pot do zaupanja vredne umetne inteligence. Podjetja in vladne institucije po vsem svetu opazujejo in odgovarjajo – nekateri z zaostrovanjem svojih ureditev, drugi z vlaganjem v inovacije. Prihodnja leta bodo pokazala, kako se bodo ti pristopi povezovali in ali bomo dosegli bolj usklajeno globalno upravljanje ali pa ostali pri mozaiku, v katerem bodo razvijalci umetne inteligence morali previdno krmariti. Kakorkoli, tisti, ki ostanejo obveščeni in pripravljeni že vnaprej – razumevanje podrobnosti evropskega zakona, vlaganje v zmožnosti za skladnost in sodelovanje v razpravah o politiki – bodo najbolje pripravljeni za uspeh v novi dobi nadzora nad umetno inteligenco.
Viri:
- Evropski parlament, “EU AI Act: prvi zakon o umetni inteligenci,” junij 2024 europarl.europa.eu europarl.europa.eu.
- Evropska komisija, “Oblikovanje digitalne prihodnosti Evrope – Zakon o umetni inteligenci,” posodobljeno 2025 digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu.
- Future of Life Institute, “Kratek povzetek zakona o umetni inteligenci,” maj 2024 artificialintelligenceact.eu artificialintelligenceact.eu.
- Orrick Law, “EU zakon o umetni inteligenci: nadzor in uveljavljanje,” 13. september 2024 orrick.com orrick.com.
- Senior Executive Media, “Kako bo zakon EU o umetni inteligenci preoblikoval globalne inovacije,” 2023 seniorexecutive.com seniorexecutive.com.
- World Economic Forum, “Kaj prinaša Zakon o pravicah za umetno inteligenco v ZDA,” oktober 2022 weforum.org weforum.org.
- Cimplifi, “Posodobljeno stanje regulacije umetne inteligence za leto 2025,” avgust 2024 cimplifi.com cimplifi.com.
- BSR, “Zakon EU o umetni inteligenci: Kje smo v 2025?” 6. maj 2025 bsr.org bsr.org.