EU Akt o umjetnoj inteligenciji 2025.: Sve što trebate znati kako biste ostali u prednosti

20 lipnja, 2025
EU AI Act 2025: Everything You Need to Know to Stay Ahead

Uvod i zakonodavni pregled

Akt o umjetnoj inteligenciji Europske unije (EU AI Act) prvi je sveobuhvatni okvir za regulaciju umjetne inteligencije u svijetu, s ciljem osiguravanja pouzdane umjetne inteligencije koja štiti sigurnost, temeljna prava i društvene vrijednosti digital-strategy.ec.europa.eu. Prijedlog zakona iznijela je Europska komisija u travnju 2021., a nakon opsežnih pregovora službeno je usvojen sredinom 2024. europarl.europa.eu europarl.europa.eu. Uspostavlja pristup temeljen na riziku za upravljanje AI-jem, uvodeći obveze razmjerne potencijalnoj štetnosti AI sustava artificialintelligenceact.eu.

Zakonodavni vremenski okvir: Ključne prekretnice uključuju odobrenje Europskog parlamenta 2023.–2024. i službenu objavu 12. srpnja 2024., čime je akt stupio na snagu 1. kolovoza 2024. artificialintelligenceact.eu artificialintelligenceact.eu. Međutim, njegove se odredbe primjenjuju postepeno tijekom narednih godina:

  • 2. veljače 2025.: AI sustavi neprihvatljivog rizika zabranjeni. Sve AI prakse koje se smatraju “neprihvatljivim rizikom” (vidi dolje) od ovog su datuma zabranjene europarl.europa.eu. Države članice EU također su započele s edukativnim programima o AI-ju za javnost artificialintelligenceact.eu.
  • 2. kolovoza 2025.: Pravila o transparentnosti i upravljanju stupaju na snagu. Nova pravila za AI modele opće namjene (temeljni modeli) i tijela za upravljanje AI-jem počinju vrijediti artificialintelligenceact.eu digital-strategy.ec.europa.eu. Na razini EU-a počinje djelovati AI Ured (objašnjeno kasnije), a od ovog datuma mogu se izricati kazne za nepoštivanje orrick.com orrick.com.
  • 2. kolovoza 2026.: Glavni zahtjevi u punoj primjeni. Većina obveza iz AI Akta – osobito za primjenu AI sustava visokog rizika – postaje obvezna 24 mjeseca nakon stupanja na snagu digital-strategy.ec.europa.eu. Do tog datuma, svi pružatelji novih AI visokog rizika moraju biti u skladu s aktom prije plasiranja sustava na tržište EU-a.
  • 2. kolovoza 2027.: Ističu produljeni rokovi. Određeni AI integrirani u regulirane proizvode (poput medicinskih uređaja pokretanih AI-jem) imaju dulji prijelazni period (36 mjeseci) do 2027. za postizanje usklađenosti digital-strategy.ec.europa.eu. Također, pružatelji postojećih AI modela opće namjene (plasiranih prije kolovoza 2025.) moraju ih ažurirati kako bi do 2027. zadovoljili zahtjeve akta artificialintelligenceact.eu.

Ovakav fazni vremenski rok daje organizacijama vrijeme za prilagodbu, dok rane mjere (poput zabrane štetnih oblika AI-ja) odmah rješavaju najozbiljnije rizike europarl.europa.eu. U nastavku rasčlanjujemo sustav klasifikacije rizika iz akta i što on znači za dionike AI-ja.

Klasifikacija prema riziku: neprihvatljivi, visoki, ograničeni i minimalni rizik

Prema AI Aktu EU-a, svaki je AI sustav klasificiran prema razini rizika, što određuje kako će biti reguliran artificialintelligenceact.eu. Četiri razine rizika su:

  • Neprihvatljiv rizik: Ova primjena AI-ja smatra se jasnom prijetnjom sigurnosti ili temeljnim pravima i strogo je zabranjena u EU digital-strategy.ec.europa.eu. Akt izričito zabranjuje osam praksi, uključujući: AI koji koristi subliminalne ili manipulativne tehnike radi nanošenja štete, iskorištavanje ranjivih skupina (poput djece ili osoba s invaliditetom) na štetan način, državne “društvene ocjene” građana i određene alate za prediktivno policijsko djelovanje artificialintelligenceact.eu artificialintelligenceact.eu. Posebno se biometrijska identifikacija na daljinu u stvarnom vremenu (npr. prepoznavanje lica u stvarnom vremenu na javnim prostorima) za potrebe policije uglavnom zabranjuje digital-strategy.ec.europa.eu. Postoje ograničene iznimke – primjerice, policija može koristiti prepoznavanje lica u stvarnom vremenu radi sprečavanja neposredne terorističke prijetnje ili pronalaska nestalog djeteta, ali samo uz sudsku dozvolu i strogi nadzor europarl.europa.eu. U suštini, svaki AI sustav čija je sama uporaba proturječna vrijednostima EU-a (primjerice, društveno bodovanje ili AI koji neutemeljeno predviđa kriminalno ponašanje) ne smije se koristiti digital-strategy.ec.europa.eu.
  • Visoki rizik: AI sustavi koji predstavljaju ozbiljne rizike za zdravlje, sigurnost ili temeljna prava svrstavaju se u ovu kategoriju. Oni su dozvoljeni na tržištu samo ako su uvedene opsežne zaštitne mjere. Primjene visokog rizika definiraju se na dva načina: (1) AI komponente koje su ključne za sigurnost i već su regulirane europskim zakonima o sigurnosti proizvoda (npr. AI u medicinskim uređajima, automobilima, zrakoplovstvu, itd.) artificialintelligenceact.eu; ili (2) AI primjene u određenim područjima navedenima u Aneksu III akta artificialintelligenceact.eu. Aneks III pokriva područja poput kritične infrastrukture, obrazovanja, zapošljavanja, osnovnih usluga, kaznenog progona, granične kontrole i pravosuđa europarl.europa.eu europarl.europa.eu. Na primjer, akt smatra AI korišten u obrazovanju (npr. ocjenjivanje ispita ili odlučivanje o upisima) visokorizičnim zbog velikog utjecaja na životne prilike digital-strategy.ec.europa.eu. Slično, AI za zapošljavanje ili upravljanje na radnom mjestu (poput alata za pretragu životopisa) i sustave ocjenjivanja kreditne sposobnosti spadaju pod visoki rizik digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Čak i robot za operacije ili dijagnostički alat pokretan AI-jem u zdravstvu su visoki rizik – bilo zato što su dio medicinskog uređaja, bilo jer bi greške mogle ugroziti pacijente digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI visokog rizika strogo je reguliran – prije nego se ovakvi sustavi mogu koristiti, pružatelji moraju provesti strogu kontrolu rizika i položiti postupak sukladnosti (detalji u idućem odlomku) cimplifi.com. Svi AI sustavi visokog rizika također će biti registrirani u EU bazi podataka radi transparentnosti i nadzora cimplifi.com. Važno je napomenuti da akt uvodi uske izuzetke kako ne bi svaka trivijalna uporaba u ovim poljima bila obuhvaćena – primjerice, ako AI samo pomaže ljudskoj odluci ili obavlja manje zadatke, može biti izuzet od oznake “visoki rizik” artificialintelligenceact.eu. No, po defaultu, svaki AI za osjetljive funkcije u navedenim sektorima smatra se visokorizičnim i mora zadovoljiti stroge uvjete usklađenosti.
  • Ograničeni rizik: Ova kategorija pokriva AI sustave koji nisu visokorizični, ali ipak zahtijevaju određene obveze transparentnosti artificialintelligenceact.eu. Akt ne propisuje stroge kontrole za ove sustave osim zahtjeva da ljudi moraju znati kada je AI u uporabi. Primjerice, chatbotovi ili virtualni asistenti moraju jasno informirati korisnike da komuniciraju sa strojem, a ne s čovjekom digital-strategy.ec.europa.eu. Slično, generativna AI koja stvara sintetičke slike, video ili zvuk (npr. deepfake) mora biti dizajnirana tako da označi AI-generirani sadržaj – primjerice, vodenim žigom ili oznakom – kako gledatelji ne bi bili zavedeni europarl.europa.eu digital-strategy.ec.europa.eu. Cilj je očuvati povjerenje ljudi kroz transparentnost. Osim ovih pravila o informiranju, AI s ograničenim rizikom može se slobodno koristiti bez prethodnog odobrenja. Akt većinu AI alata namijenjenih krajnjim korisnicima tretira kao ograničenog rizika – gdje je glavni zahtjev informacija korisnicima. Primjer je AI koji mijenja glas ili stvara realističnu sliku – nije zabranjen, ali mora biti jasno označen kao AI-generiran da se spriječi obmana europarl.europa.eu.
  • Minimalni (ili nikakav) rizik: Svi ostali AI sustavi spadaju u ovu najnižu skupinu, koja čini veliku većinu AI primjena. Oni nose zanemariv ili rutinski rizik te nemaju nove regulatorne obveze prema AI Aktu artificialintelligenceact.eu digital-strategy.ec.europa.eu. Uobičajeni primjeri uključuju AI filtere za spam, algoritme za preporuke, AI u videoigrama ili trivialne AI pomoćne alate u softveru. Za njih akt zapravo ne predviđa posebnu regulaciju – mogu se razvijati i koristiti kao i prije, pod postojeće zakone (poput zaštite potrošača ili zaštite privatnosti), ali bez dodatnih AI-specific zahtjeva. EU izričito navodi da je većina AI sustava u upotrebi niskorizična i ne treba biti prekomjerno regulirana digital-strategy.ec.europa.eu. Regulacija cilja iznimke (visoki i neprihvatljivi rizik), dok je AI minimalnog rizika neopterećen, potičući nastavak inovacija u tom području.

Ukratko, EU-ov model temeljen na riziku odmah zabranjuje najštetnije prakse AI-ja, strogo regulira osjetljive AI primjene, a blago pristupa svemu ostalom cimplifi.com. Ovakav pristup ima za cilj zaštititi građane od štete bez nepotrebne regulacije svih AI sustava. U nastavku donosimo što usklađenost znači za one koji razvijaju ili koriste AI, osobito u visoko rizičnim područjima.

Obveze za AI programere (davatelje) i implementatore (korisnike)

Zahtjevi usklađenosti za AI sustave visokog rizika: Ako razvijate AI sustav koji se smatra visokorizičnim, EU Akt o umjetnoj inteligenciji nameće detaljan popis obveza prije i nakon izlaska na tržište. To u suštini odražava prakse iz industrija kritičnih za sigurnost i zaštitu podataka, sada primijenjene na AI. Davatelji (programeri koji stavljaju sustav na tržište) visokorizičnog AI-ja moraju, između ostalog:

  • Provesti sustav za upravljanje rizicima: Potrebno je kontinuirano upravljanje rizicima tijekom cijelog životnog ciklusa AI sustava artificialintelligenceact.eu. To znači prepoznavanje predvidivih rizika (npr. opasnosti za sigurnost, rizika od pristranosti ili pogreške), njihovu analizu i procjenu te poduzimanje mjera ublažavanja rizika od faze dizajna do nakon implementacije artificialintelligenceact.eu. Ovo je analogno pristupu „sigurnost već u dizajnu” – predviđanje načina na koji AI može zatajati ili prouzročiti štetu i rješavanje tih pitanja na vrijeme.
  • Osigurati visokokvalitetne podatke i upravljanje podacima: Skupovi podataka za treniranje, validaciju i testiranje trebaju biti relevantni, reprezentativni i bez pogrešaka ili pristranosti “koliko god je to moguće” artificialintelligenceact.eu. Akt naglašava izbjegavanje diskriminirajućih ishoda, pa davatelji moraju provjeriti svoje podatke zbog neuravnoteženosti ili grešaka koje bi mogle dovesti do nepravednog tretiranja ljudi od strane AI-ja digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Na primjer, ako razvijate AI za zapošljavanje, skup podataka za treniranje mora se provjeriti kako ne bi odražavao prijašnju rodnu ili rasnu pristranost u procesu zapošljavanja. Upravljanje podacima obuhvaća i praćenje porijekla i obrade podataka kako bi se performanse AI-ja mogle razumjeti i revidirati.
  • Tehnička dokumentacija i vođenje zapisa: Programeri moraju izraditi opsežnu tehničku dokumentaciju koja dokazuje usklađenost AI sustava artificialintelligenceact.eu. Ova dokumentacija treba opisivati namjenu sustava, dizajn, arhitekturu, algoritme, podatke za treniranje i kontrole rizika artificialintelligenceact.eu. Mora biti dostatna da bi regulatori mogli procijeniti način rada sustava i je li u skladu s Aktom. Uz to, visokorizični AI sustavi moraju biti dizajnirani tako da bilježe svoje operacije – tj. automatski bilježe događaje i odluke, kako bi se omogućila sljedivost i analiza nakon plasiranja na tržište artificialintelligenceact.eu digital-strategy.ec.europa.eu. Primjerice, AI sustav koji odlučuje o kreditima može bilježiti ulazne podatke i osnovu za svaku odluku. Ove evidencije pomažu u prepoznavanju grešaka ili pristranosti i ključne su u slučaju incidenta ili istrage usklađenosti.
  • Ljudski nadzor i jasne upute: Davatelji moraju izraditi sustav tako da omogući učinkoviti ljudski nadzor od strane korisnika ili operatera artificialintelligenceact.eu. To može uključivati značajke ili alate za ljudsku intervenciju ili praćenje funkcioniranja AI-ja. Davatelj također mora implementatoru dostaviti detaljne upute za korištenje artificialintelligenceact.eu. Te upute trebaju pojasniti kako pravilno instalirati i koristiti AI, koja su njegova ograničenja, očekivanu razinu točnosti, potrebne mjere ljudskog nadzora i rizike zloupotrebe artificialintelligenceact.eu. Ideja je da tvrtka korisnik AI-ja (implementator) može nadzirati i upravljati sustavom samo ako ih programer opremi znanjem i sredstvima za to. Primjerice, proizvođač AI dijagnostičkog alata za medicinu mora bolnici korisniku objasniti kako tumačiti rezultate i kada liječnik treba dodatno provjeriti ishod.
  • Izvedba, robusnost i kibernetička sigurnost: AI sustavi visokog rizika moraju postići odgovarajuću razinu točnosti, robusnosti i kibernetičke sigurnosti za svoju namjenu artificialintelligenceact.eu. Davatelji bi trebali testirati i prilagoditi modele kako bi minimizirali stopu pogrešaka i izbjegli nepredvidivo ponašanje. Također su potrebne zaštite od manipulacija ili hakiranja (kibernetička sigurnost), jer kompromitirani AI može biti opasan (zamislite napadača koji mijenja AI sustav za upravljanje prometom). U praksi, ovo može uključivati stres testiranje AI-ja pod raznim uvjetima i osiguravanje da može obrađivati varijacije ulaznih podataka bez kritičnih grešaka artificialintelligenceact.eu. Sva poznata ograničenja (npr. smanjena točnost za određene demografske skupine ili scenarije) moraju biti dokumentirana i ublažena što je više moguće.
  • Sustav upravljanja kvalitetom: Kao krovna mjera, davatelji su obvezni imati sustav upravljanja kvalitetom artificialintelligenceact.eu. To je formalan organizacijski proces za osiguravanje trajne usklađenosti – slično ISO standardima kvalitete – koji pokriva sve od standardnih operativnih postupaka u razvoju do upravljanja incidentima i nadogradnjama. Time se usklađenost usađuje u organizaciju tako da izgradnja sigurnog i zakonitog AI-ja nije jednokratni, već trajni napor davatelja.

Prije nego što se AI sustav visokog rizika može plasirati na tržište EU-a, davatelj mora proći ocjenu sukladnosti kojom se potvrđuje ispunjavanje svih ovih zahtjeva. Mnogi AI sustavi visokog rizika podliježu samoprocjeni, gdje davatelj sam provjerava usklađenost i izdaje EU deklaraciju sukladnosti. Međutim, ako je AI dio određenih reguliranih proizvoda (poput medicinskog uređaja ili automobila), notificirano tijelo (neovisni treći ocjenjivač) može biti dužno potvrditi sukladnost AI sustava, sukladno važećim propisima o proizvodima cimplifi.com. U svim slučajevima, usklađeni AI sustavi će nositi CE oznaku, koja potvrđuje ispunjavanje EU standarda, i bit će upisani u EU bazu podataka visokorizičnih AI sustava cimplifi.com. Ova baza transparentnosti omogućuje regulatorima i javnosti uvid u to koji se visokorizični AI sustavi koriste i tko za njih snosi odgovornost.

Obveze za implementatore (korisnike): Akt također nameće odgovornosti korisnicima ili operaterima koji implementiraju visokorizične AI sustave u profesionalnom okruženju. (To su tvrtke ili tijela koja koriste AI, za razliku od krajnjih korisnika ili potrošača.) Ključne obveze implementatora uključuju: pridržavanje uputa davatelja za korištenje, osiguranje ljudskog nadzora kako je propisano i nadzor performansi AI-ja tijekom stvarnog rada digital-strategy.ec.europa.eu. Ako implementator primijeti da se AI ponaša neočekivano ili postoje sigurnosni problemi, treba poduzeti radnje (uključujući mogućnost obustave korištenja) i obavijestiti davatelja i nadležna tijela. Implementatori također moraju voditi zapise tijekom rada AI-ja (kako bi zabilježili njegove izlazne podatke i odluke, nadopunjujući vlastite evidencije AI-ja) i prijaviti ozbiljne incidente ili kvarove nadležnim tijelima artificialintelligenceact.eu. Na primjer, bolnica koja koristi AI dijagnostički alat treba prijaviti ako je AI doveo do pogrešne dijagnoze pacijenta s posljedicama. Ove korisničke obveze jamče da nadzor traje i nakon implementacije – AI nije pušten bez nadzora, nego je pod ljudskim praćenjem uz povratne informacije programeru i regulatorima.

Važno je napomenuti da korisnici male veličine (npr. mali poduzetnici) nisu izuzeti od ovih obveza ako implementiraju visokorizični AI, ali su autori Akta predvidjeli da dokumentacija i podrška davatelja omoguće ostvarenje usklađenosti. Akt također razlikuje korisnike od pogođenih osoba – potonji (npr. potrošač kojemu je AI-odlukom odbijen zahtjev) nemaju obveze prema Aktu, ali imaju prava poput podnošenja žalbi na problematične AI sustave europarl.europa.eu.

Zahtjevi transparentnosti (iznad visokog rizika): Osim za sustave visokog rizika, AI Akt propisuje posebne mjere transparentnosti za određene AI sustave bez obzira na razinu rizika. Ove smo mjere spomenuli pod “ograničenim rizikom”. Konkretno, svaki AI sustav koji komunicira s ljudima, generira sadržaj ili nadzire ljude mora pružiti odgovarajuću obavijest:

  • AI sustavi koji komuniciraju s ljudima (poput chatbotova ili AI asistenata) moraju obavijestiti korisnika da su AI. Na primjer, chatbot za korisničku podršku na internetu mora se jasno identificirati kao automatiziran, kako korisnici ne bi bili zavarani da komuniciraju s osobom digital-strategy.ec.europa.eu.
  • AI koji generira ili manipulira sadržajem (slike, video, audio ili tekst) na način koji može dovesti u zabludu mora osigurati da je sadržaj označen kao AI-generiran digital-strategy.ec.europa.eu. Deepfake su glavni primjer: ako AI stvori realističnu sliku ili video osobe koja zapravo nije učinila ili izgovorila prikazano, taj medij mora biti označen kao AI-generiran (osim ako se koristi u satiri, umjetnosti ili istraživanju sigurnosti, koji mogu biti izuzeti). Cilj je boriti se protiv obmane i dezinformacija jasno označavajući izvornost medija.
  • AI sustavi korišteni za biometrijski nadzor (poput kamera s prepoznavanjem lica) ili prepoznavanje emocija moraju, kad god je to moguće, upozoriti ljude na svoj rad. (I kao što je navedeno, mnoge od tih primjena su izričito zabranjene ili spadaju u visokorizične sustave pod strogim uvjetima).
  • Generativni AI modeli (često zvani temeljni modeli, npr. veliki jezični modeli kao što je ChatGPT) podliježu posebnim zahtjevima transparentnosti i informiranja. Čak i ako generativni model nije kategoriziran kao visokorizičan, pružatelj mora razotkriti određene informacije: primjerice, AI-generiran sadržaj treba biti označen, a pružatelj treba objaviti sažetak autorski zaštićenih podataka korištenih za treniranje modela europarl.europa.eu. Ovo ima svrhu informiranja korisnika i kreatora o potencijalnoj intelektualnoj svojini u skupu za treniranje i usklađivanja s EU zakonima o autorskim pravima europarl.europa.eu. Također se očekuje od pružatelja generativnih modela da spriječi generiranje nezakonitog sadržaja, npr. ugradnjom filtera ili zaštita u model europarl.europa.eu.

Ukratko, transparentnost je temeljna tema AI Akta – bilo da se radi o sustavu visokog rizika (sa detaljnom dokumentacijom i obavijestima za korisnika) ili chatbotu niskog rizika (sa jednostavnom oznakom “Ja sam AI”), ideja je rasvijetliti “crne kutije” umjetne inteligencije. To ne samo da osnažuje korisnike i pogođene osobe, već i olakšava odgovornost: ako nešto pođe po zlu, postoji zapis o tome što je AI trebao raditi i kako je razvijen.

AI opće namjene (temeljni modeli): Značajna novost u konačnoj verziji Akta je skup pravila za AI opće namjene (GPAI) modele – to su široki AI modeli trenirani na velikim podacima (često samonadziranjem) koji se mogu prilagoditi širokom spektru zadataka artificialintelligenceact.eu. Primjeri uključuju velike jezične modele, generatore slika ili druge “temeljne” modele koje tehnološke tvrtke razvijaju i zatim nude drugima na korištenje ili doradu. Akt prepoznaje da, iako ovi modeli nisu vezani za točno određenu visokorizičnu primjenu, kasnije mogu biti integrirani u sustave visokog rizika ili imati sistemske posljedice. Stoga stvara obveze za pružatelje GPAI modela, čak i ako ti modeli još uvijek nisu u potrošačkom proizvodu.

Svi pružatelji GPAI modela moraju objaviti tehničku dokumentaciju o svojem modelu (opisujući proces razvoja i sposobnosti) i dati upute svim daljnjim programerima kako koristiti model u skladu sa zakonom artificialintelligenceact.eu artificialintelligenceact.eu. Također moraju poštovati autorska prava – osiguravajući da su podaci za treniranje u skladu s EU pravilima o autorskim pravima – i objaviti sažetak podataka korištenih za treniranje (barem pregled izvora podataka) artificialintelligenceact.eu. Ovi zahtjevi donose više transparentnosti trenutno netransparentnom svijetu velikih AI modela.

Ključno je da Akt razlikuje vlasničke modele i one objavljene pod open source licencama. Pružatelji open-source GPAI modela (gdje su težine i kod modela slobodno dostupni) imaju lakše obaveze: moraju ispuniti samo korake transparentnosti vezane uz autorska prava i podatke za treniranje, ne i punu tehničku dokumentaciju ili upute za korištenje – osim ako njihov model predstavlja “sistemski rizik” artificialintelligenceact.eu. Ova je iznimka osmišljena kako bi se izbjeglo gušenje otvorenih inovacija i istraživanja. No, ako je otvoreni model iznimno sposoban i može imati velike posljedice, neće izbjeći nadzor samo zato što je open source.

Akt definira “GPAI modele sa sistemskim rizikom” kao one vrlo napredne modele koji mogu imati dalekosežne posljedice za društvo. Jedan od kriterija je ako je za treniranje modela bilo potrebno više od 10^25 računskih operacija (FLOPs) – što je pokazatelj samo najzahtjevnijih i najmoćnijih modela artificialintelligenceact.eu. Pružatelji takvih modela visokog utjecaja moraju provoditi dodatne evaluacije i testiranja (uključujući “adversarial” testiranje za otkrivanje ranjivosti) te aktivno umanjiti svaki zabilježeni sistemski rizik artificialintelligenceact.eu. Također moraju prijaviti ozbiljne incidente vezane uz model Europskom AI Uredu i nacionalnim tijelima, te osigurati snažnu kibernetičku sigurnost modela i njegove infrastrukture artificialintelligenceact.eu. Te mjere predviđaju zabrinutosti vezane uz napredni AI (poput GPT-4 i naprednije) koji bi potencijalno mogao uzrokovati štetu velikih razmjera (npr. omogućiti nove oblike dezinformacija, cyber napada itd.). Akt suštinski poručuje: ako razvijate revolucionaran opći AI, morate biti posebno pažljivi i surađivati s regulatorima kako bi sve bilo pod kontrolom europarl.europa.eu artificialintelligenceact.eu.

Kako bi se potaknula suradnja, Akt predviđa da poštivanje kodeksa ponašanja ili budućih usklađenih standarda može biti način da GPAI pružatelji ispune svoje obaveze artificialintelligenceact.eu. Zapravo, EU trenutno razvija AI Kodeks prakse za sektor kao privremenu mjeru digital-strategy.ec.europa.eu. AI Ured vodi ovaj napor kako bi detaljno opisao praktične korake za usklađenost temeljnih modela digital-strategy.ec.europa.eu. Kodeks je dobrovoljan ali može služiti kao “sigurna luka” – ako ga kompanija slijedi, regulatori mogu pretpostaviti da je usklađena sa zakonom.

Općenito, obaveze po AI Aktu obuhvaćaju cijeli životni ciklus AI-a: od dizajna (procjena rizika, provjera podataka), razvoja (dokumentacija, testiranje), implementacije (transparentnost prema korisnicima, nadzor), do postmarket (praćenje, prijava incidenata). Usklađenost će zahtijevati multidisciplinarni pristup – AI developeri morat će imati ne samo podatkovne znanstvenike i inženjere, već i pravnike, stručnjake za rizike i etičare uključene u proces kako bi ispunili sve zahtjeve. Sljedeće razmatramo kako će se osigurati provođenje Akta i što se događa ako kompanije ne ispune obveze.

Mehanizmi provedbe, nadzorna tijela i kazne

Za nadzor ove opsežne regulative, EU AI Akt uspostavlja višerazinsku strukturu upravljanja i provedbe. To uključuje nacionalna tijela u svakoj državi članici, novi središnji Europski AI Ured te koordinaciju putem AI Odbora. Pristup provedbi dijelom je modeliran prema EU iskustvu sa sigurnošću proizvoda i režimima zaštite podataka (poput GDPR-a s nacionalnim regulatorima i europskim odborom).

Nacionalna nadležna tijela: Svaka država članica EU mora imenovati jedno ili više nacionalnih tijela odgovornih za nadzor AI aktivnosti (često zvana tijela za nadzor tržišta za umjetnu inteligenciju) orrick.com. Ta tijela bavit će se svakodnevnim provođenjem istraga o usklađenosti – primjerice, provjerom ispunjava li visokorizični AI proizvod određenog pružatelja zahtjeve na tržištu ili istraživanjem pritužbi građana. Imaju ovlasti slične postojećim zakonima o sigurnosti proizvoda (Uredba (EU) 2019/1020): mogu tražiti informacije od pružatelja, provoditi inspekcije, pa čak i narediti povlačenje neusklađenih AI sustava s tržišta orrick.com. Također prate tržište radi AI sustava koji pokušavaju izbjeći pravila ili predstavljaju nepredviđene rizike. Ako se AI sustav utvrdi kao neusklađen ili opasan, nacionalna tijela mogu izreći novčane kazne ili zatražiti povlačenje/opoziv sustava.

Svaka će država vjerojatno tu ulogu dodijeliti postojećem regulatoru ili osnovati novo tijelo (neki sugeriraju da bi tijela za zaštitu podataka mogla preuzeti i AI ili sektorski regulatori poput agencija za medicinske uređaje za medicinsku umjetnu inteligenciju, kako bi iskoristili stručnost). Do kolovoza 2025. države članice moraju imati imenovane i operativne svoje AI regulatore artificialintelligenceact.eu, a do 2026. svaka država mora uspostaviti najmanje jedan regulatorni sandbox za AI (kontrolirano okruženje za testiranje inovativne umjetne inteligencije pod nadzorom) artificialintelligenceact.eu.

Europski ured za umjetnu inteligenciju: Na razini EU osnovano je novo tijelo poznato kao Ured za umjetnu inteligenciju unutar Europske komisije (konkretno pod DG CNECT) artificialintelligenceact.eu. Ured za AI je središnji regulator s fokusom na umjetnu inteligenciju opće namjene i prekogranična pitanja. Prema Aktu, Ured za AI ima isključiva ovlaštenja za provedbu pravila za pružatelje GPAI modela orrick.com. To znači da ako OpenAI, Google ili bilo koja tvrtka pruža veliki AI model koji se koristi širom Europe, Ured za AI bit će glavni provoditelj koji osigurava da ti pružatelji ispunjavaju svoje obveze (tehnička dokumentacija, ublažavanje rizika itd.). Ured za AI može izravno zahtijevati informacije i dokumentaciju od pružatelja temeljnih modela i zahtijevati korektivne mjere ako se ne pridržavaju pravila orrick.com. Također će nadzirati slučajeve u kojima je ista tvrtka i pružatelj temeljnog modela i implementator visokorizičnog sustava građenog na tom modelu – kako ne bi došlo do “pada između stolica” između nacionalnog i EU nadzora orrick.com.

Osim provedbe, Ured za AI ima široku ulogu u praćenju trendova i sustavnih rizika umjetne inteligencije. Zadužen je za analizu novih visokorizičnih ili nepredviđenih problema umjetne inteligencije (osobito vezano uz GPAI) i može provoditi procjene snažnih modela artificialintelligenceact.eu. Ured će imati stručnjake (Komisija zapošljava AI stručnjake za taj ured artificialintelligenceact.eu) i surađivat će s neovisnim Znanstvenim panelom AI stručnjaka za savjetovanje o tehničkim pitanjima artificialintelligenceact.eu. Važno je da će Ured razvijati dobrovoljne kodekse ponašanja i smjernice za industriju – djelujući kao resurs koji pomaže AI developerima u usklađenosti (posebno korisno za startupove i mala/srednja poduzeća) artificialintelligenceact.eu. Ured će koordinirati s državama članicama kako bi se osigurala dosljedna primjena pravila i čak pomoći pri zajedničkim istragama kada AI problem zahvaća više država artificialintelligenceact.eu artificialintelligenceact.eu. Ukratko, Ured za AI je pokušaj EU-a da stvori središnjeg AI regulatora koji nadopunjuje nacionalna tijela – slično kao što Europski odbor za zaštitu podataka djeluje za GDPR, ali s još izravnijim ovlastima u određenim područjima.

AI odbor: Akt uspostavlja novi Europski odbor za umjetnu inteligenciju koji se sastoji od predstavnika svih nacionalnih tijela za AI (te europskog nadzornika za zaštitu podataka i Ureda za AI kao promatrača) artificialintelligenceact.eu. Zadaća odbora je osigurati dosljednu provedbu širom Europe – dijeljenjem najboljih praksi, mogućim izdavanjem mišljenja ili preporuka te koordinacijom prekograničnih strategija provedbe artificialintelligenceact.eu. Ured za AI djeluje kao tajništvo tog odbora, organizira sastanke i pomaže u izradi dokumenata artificialintelligenceact.eu. Odbor može, primjerice, poticati razvoj standarda ili raspravljati o promjenama koje treba unijeti u anekse Akta tijekom vremena. Riječ je o međudržavnom forumu koji sve drži na istoj liniji, sprječavajući različita tumačenja i fragmentaciju jedinstvenog EU tržišta za AI.

Kazne za neusklađenost: AI Akt uvodi visoke novčane kazne za prekršaje, po uzoru na odvraćajući pristup GDPR-a. Postoje tri razine upravnih novčanih kazni:

  • Za najteže prekršaje – odnosno korištenje zabranjenih AI praksi (neprihvatljive upotrebe koje su zabranjene) – kazne mogu doseći do 35 milijuna eura ili 7% ukupnog godišnjeg prometa na svjetskoj razini, ovisno što je veće orrick.com. To je vrlo visoka maksimalna kazna (značajno viša od GDPR-ovih 4%). Pokazuje koliko EU ozbiljno doživljava, primjerice, izradu tajnih sustava socijalnog bodovanja ili nezakoniti biometrijski nadzor – ovo se svrstava među najteže korporativne prekršaje.
  • Za ostale povrede zahtjeva Akta (npr. neispunjavanje obveza za visokorizične AI sustave, neupisivanje sustava, neprovođenje mjera transparentnosti), maksimalna kazna iznosi 15 milijuna eura ili 3% ukupnog godišnjeg prometa orrick.com. Tu spada većina prekršaja: primjerice, tvrtka ne provede procjenu sukladnosti ili pružatelj skriva informacije od regulatora – to ulazi u ovu kategoriju.
  • Za davanje netočnih, obmanjujućih ili nepotpunih informacija regulatorima (primjerice, tijekom istrage ili odgovora na zahtjev za usklađenošću), kazna može biti do 7,5 milijuna eura ili 1% prometa orrick.com. Ova blaža razina namijenjena je opstrukciji ili nesuradnji s tijelima.

Važno je da zakon nalaže da MSP-ovi (mala i srednja poduzeća) trebaju biti na donjem kraju ovih raspona kazni, dok velike tvrtke mogu biti kažnjene na višem orrick.com. Drugim riječima, iznosi od 35M€ / 7% ili 15M€ / 3% su maksimumi; regulatori imaju diskrecijska prava i očekuje se da će uzeti u obzir veličinu i financijske mogućnosti prekršitelja. Tako MSP može primiti kaznu od nekoliko milijuna umjesto postotka prometa, kako bi se izbjegli nerazmjerni udarci, dok bi velike tehnološke kompanije mogle dobiti postotno određene kazne, kako bi kazna imala stvarni odvraćajući učinak orrick.com.

Ove odredbe o kaznama postaju provedive od 2. kolovoza 2025. za većinu pravila orrick.com. (Budući da tog datuma stupaju na snagu poglavlje o upravljanju i članci o kaznama). Međutim, za nove obveze za modele umjetne inteligencije opće namjene, kazne počinju godinu dana kasnije, 2. kolovoza 2026., što je usklađeno s rokom kada zahtjevi za temeljne modele postaju obvezni orrick.com. Ova odgoda daje pružateljima temeljnih modela vremena za pripremu.

Što se tiče postupka i zaštitnih mjera: tvrtke će imati prava kao što su pravo na saslušanje prije izricanja sankcije, a povjerljivost osjetljivih podataka dostavljenih regulatorima je obavezna orrick.com. Akt također napominje da, za razliku od nekih drugih EU zakona, Komisija (putem AI Ureda) nema široke ovlasti za nenajavljene pretrese ili prisiljavanje na svjedočenje – osim ako privremeno ne preuzme ulogu nacionalnog tijela orrick.com. Ovo odražava određena ograničenja, vjerojatno kako bi se umirila zabrinutost zbog prekoračenja ovlasti.

Uloga AI Ureda u provedbi: Europska komisija, preko AI Ureda, može sama pokrenuti provedbene mjere u određenim slučajevima, osobito vezanima uz generativnu (“opće-namjensku”) umjetnu inteligenciju. To je nov mehanizam provedbe – povijesno gledano, Komisija nije izravno provodila pravila za proizvode (njezina je uloga bila više nadzorna i koordinacijska), osim u području tržišnog natjecanja. S Akta o AI, Komisija dobiva konkretniji alat za izravnu provedbu. AI Ured može istraživati pružatelje temeljnih AI modela, zatražiti široki set dokumenata (slično kao kod antitrustovskih istraga) orrick.com pa čak i provoditi simulirane kibernetičke napade ili evaluacije na AI modelima radi provjere sigurnosti artificialintelligenceact.eu. Tvrtke pod takvim istragama mogle bi doživjeti nešto slično antitrustovskim istragama, što, prema analitičarima tvrtke Orrick, može biti opterećujuće zbog zahtjeva za tisućama dokumenata, uključujući i interne nacrte orrick.com. Iskustvo Komisije u velikim istragama sugerira da će u značajnim AI slučajevima angažirati znatne resurse. Iako to podiže zahtjeve za usklađenost AI razvojnih tvrtki, ističe i da je EU ozbiljna u vezi centralizirane provedbe pravila o temeljnoj AI koja prelazi granice.

Nadzor nad visokorizičnom AI: Kada je riječ o tradicionalnim visokorizičnim AI sustavima (poput bankarskih sustava za procjenu kreditne sposobnosti ili AI kojeg grad koristi u policiji), prve linije provedbe i dalje su nacionalna tijela. No, AI Ured i AI odbor pružat će im podršku, osobito ako se pojave problemi koji utječu na više zemalja. Akt omogućuje zajedničke istrage, pri čemu nekoliko nacionalnih regulatora surađuje (uz podršku AI Ureda) ako rizici AI sustava prelaze granice država artificialintelligenceact.eu. Ovo sprječava, primjerice, da se AI kojeg koristi cijela EU rješava izolirano u jednoj zemlji dok druge ostaju neinformirane.

Na kraju, ugrađen je i postupak žalbe i nadzora: tvrtke mogu osporavati odluke o provedbi putem nacionalnih sudova (ili na kraju i EU sudova, ako je riječ o odluci Komisije), a Akt će podlijegati periodičnim revizijama. Do 2028. godine Komisija mora procijeniti koliko su AI Ured i novi sustav učinkoviti artificialintelligenceact.eu, a svakih nekoliko godina preispitat će trebaju li se kategorije rizika ili popisi (prilog III itd.) ažurirati artificialintelligenceact.eu. Ovakav prilagodljivi pristup upravljanju ključan je obzirom na brzinu razvoja AI tehnologije – EU namjerava prilagođavati pravila kroz vrijeme prema potrebi.

Sažeto, Akt o umjetnoj inteligenciji EU provodit će se kroz mrežu regulatora, s Europskim AI Uredom kao središnjom točkom za smjernice, dosljednost i izravni nadzor nad temeljim modelima. Kazne su značajne – na papiru među najvećima u bilo kojem tehnološkom propisu – što jasno poručuje da neusklađenost nije prihvatljiva opcija. Organizacije će morati ugraditi usklađenost u svoje AI projekte od samog početka kako bi izbjegle ove kazne ili prisilno gašenje svojih AI sustava.

Sektorski utjecaji i primjeri primjene

Implikacije Akta o AI razlikuju se po industrijama, budući da zakon određena područja cilja kao visokorizična. Ovdje navodimo kako su ključni sektori – zdravstvo, financije, pravo i obrazovanje – pogođeni:

  • Zdravstvo i medicinski uređaji: AI obećava mnogo u medicini (od dijagnosticiranja bolesti do operacija uz pomoć robota), no po ovom aktu takve su primjene često klasificirane kao visokorizične. Zapravo, svaki AI dio reguliranog medicinskog uređaja automatski se smatra visokorizičnim emergobyul.com. Primjerice, AI sustav za analizu rendgenskih slika ili algoritam koji predlaže terapiju, morat će udovoljavati zahtjevima Akta uz postojeće zdravstvene regulative. Pružatelji takvih AI rješenja prolazit će rigorozne postupke ocjene sukladnosti (vjerojatno oslanjajući se na CE označavanje medicinskih uređaja). Morat će osigurati kliničku kvalitetu i sigurnost, što je u skladu sa zahtjevima za točnost i umanjenje rizika. Pacijenti i medicinsko osoblje trebali bi imati koristi od ovih zaštita – AI će biti pouzdaniji, a njegova ograničenja transparentna. No, programeri medicinske AI suočavaju se s rastućim troškovima istraživanja i razvoja te administrativnim opterećenjem kako bi dokazali sukladnost. S vremenom bi u europskom zdravstvu mogli vidjeti sporije uvođenje AI inovacija dok one ne prođu regulatornu provjeru goodwinlaw.com. S druge strane, Akt potiče eksperimentiranje kroz sandboxove: bolnice, startupovi i regulatori mogu surađivati u kontroliranim ispitivanjima AI sustava (npr. AI pomoć za dijagnostiku) radi prikupljanja dokaza o sigurnosti i učinkovitosti prije šire primjene. Do 2026., svaka država članica morat će imati barem jedan takav AI regulatorni sandbox u sektorima uključujući zdravstvo artificialintelligenceact.eu. Zaključno, zdravstvena AI u Europi vjerojatno će postati sigurnija i standardiziranija, ali će proizvođači morati pažljivo upravljati usklađenošću kako bi izbjegli kašnjenja u plasiranju inovacija koje spašavaju živote.
  • Financije i osiguranje: Akt izričito svrstava mnoge AI sustave u financijskim uslugama u kategoriju visokog rizika. Osobito, AI sustavi za procjenu kreditne sposobnosti – npr. algoritmi koji odlučuju hoćete li dobiti kredit ili po kojoj kamatnoj stopi – navedeni su kao visokorizični jer mogu utjecati na pristup bitnim uslugama digital-strategy.ec.europa.eu. To znači da banke i fintech kompanije koje koriste AI za odobravanje kredita, bodovanje ili procjenu rizika osiguranja moraju osigurati da su ti sustavi nediskriminirajući, objašnjivi i revizirani. Morat će voditi dokumentaciju o tome kako su algoritmi trenirani (da bi dokazali, primjerice, da ne kažnjavaju nenamjerno određene etničke skupine ili kvartove, što je čest problem s takvim modelima). Klijenti će imati koristi od transparentnosti: iako Akt ne daje izravno pravo na objašnjenje poput GDPR-a, zahtjev za jasnim informacijama korisnicima znači da bi vjerovnici trebali moći informirati korisnike kad je u odluci sudjelovala AI te barem u osnovi kako funkcionira digital-strategy.ec.europa.eu. Još jedan financijski primjer je AI za detekciju prijevara i sprječavanje pranja novca, koja može spadati u visokorizične (ako utječe na temeljna prava) ili u zahtjeve za transparentnost kod ograničenog rizika. Financijske tvrtke morat će imati snažne procese upravljanja AI – primjerice, okvir za upravljanje rizicima modela proširen za kriterije Akta o AI. Početni troškovi mogu nastati zbog angažiranja savjetnika za testiranje pristranosti ili zbog veće dokumentacije modela, ali bi rezultat trebala biti poštenija i pouzdanija AI u financijama. Klijenti bi mogli vidjeti smanjenje pristranosti u kreditnim odlukama i znati da AI koja donosi takve procjene nadzire regulator. Osiguravatelji koji koriste AI za underwriting (procjenu zdravstvenog ili životnog rizika osiguranika) također su pokriveni kao visokorizični artificialintelligenceact.eu te moraju spriječiti nepoštenu diskriminaciju (primjerice, paziti da AI ne povećava neopravdano premije na temelju zaštićenih zdravstvenih karakteristika). Sveukupno, Akt gura financijsku AI prema većoj transparentnosti i odgovornosti, što će vjerojatno kroz vrijeme povećati povjerenje potrošača u AI proizvode u financijama.
  • Pravo i javna sigurnost: Ovo je područje gdje Akt zauzima izrazito oprezan stav zbog velikog rizika za građanske slobode. Nekoliko AI aplikacija za provedbu zakona izričito je zabranjeno kao neprihvatljivo: primjerice, AI za “društveno bodovanje” ili prediktivnu policiju koja profilira pojedince po (ne)sklonosti kriminalu, strogo je zabranjen artificialintelligenceact.eu artificialintelligenceact.eu. Također, uporaba kamere za prepoznavanje lica u realnom vremenu na javnim mjestima od strane policije zabranjena je osim u iznimnim hitnim situacijama (i tada uz stroga odobrenja) europarl.europa.eu. To znači da europske policije ne mogu jednostavno instalirati mreže kamera za prepoznavanje lica uživo – što se možda događa drugdje u svijetu – osim u vrlo uskim slučajevima ozbiljnih prijetnji i uz suglasnost suda. Drugi alati za provedbu zakona spadaju u visokorizične, što znači da se mogu koristiti, ali pod nadzorom. Primjerice, AI koji analizira podatke o kriminalu radi raspodjele resursa ili procjenjuje pouzdanost dokaza ili profila osumnjičenika smatra se visokorizičnim digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policija ili granične službe koje koriste takve sustave morat će provesti procjene utjecaja na temeljna prava te osigurati da konačne odluke donosi čovjek, a ne AI samostalno. Postojat će EU baza podataka u kojoj će svi visokorizični AI sustavi za primjenu zakona biti registrirani, što dodaje transparentnost i omogućuje javni nadzor (djelomično, budući da neki podaci mogu biti osjetljivi). Tijela za provedbu zakona mogu smatrati da Akt uvodi dodatnu birokraciju (ispunjavanje dokumentacije, dobivanje odobrenja od ovlaštenog tijela za određene alate itd.), što može usporiti uvođenje AI-ja. Međutim, ove mjere imaju za cilj spriječiti zloupotrebe – primjerice, da se ne dogodi scenarij u kojem o kazni ili tome tko se zaustavlja na granici bez prava na žalbu odlučuje algoritam kao “crna kutija”. Posebno se ističe zabrana tehnologija za analizu emocija na radnim mjestima ili u policijskim ispitivanjima: Akt zabranjuje AI koja tvrdi da detektira osjećaje tijekom policijskih ispitivanja, razgovora za posao, školskih ispita itd., zbog njezine invazivnosti i upitne pouzdanosti digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Dakle, provođenje zakona u EU vjerojatno će se fokusirati na AI koja pomaže u analizi podataka i rutinskim zadaćama, pod ljudskim nadzorom, i napustiti distopijske AI prakse koje druge regije možda iskušavaju. U suštini, Akt nastoji uspostaviti ravnotežu: dopustiti AI-u da pomogne u rješavanju kriminala i unaprjeđenju javne sigurnosti, ali ne na štetu temeljnih prava i sloboda.
  • Obrazovanje i zapošljavanje: AI sustavi koji se koriste u obrazovanju, poput softvera za ocjenjivanje ispita ili preporuku nastavka školovanja, smatraju se visokorizičnima jer mogu oblikovati budućnost učenika digital-strategy.ec.europa.eu. Škole ili edtech kompanije koje uvode AI, primjerice za ocjenjivanje eseja ili otkrivanje varanja, morat će osigurati točnost i nepristranost tih alata. AI koja pogrešno ocjenjuje neke skupine učenika ili zataji tijekom ispita može imati životno važne posljedice, zbog čega je klasificiran kao visokorizičan. U praksi, ministarstva obrazovanja i sveučilišta možda će morati strože provjeravati AI dobavljače i voditi detaljnu dokumentaciju za svaki algoritam koji utječe na upise ili ocjene. Učenici trebaju biti informirani kad je AI u uporabi (transparentnost) i imati mogućnost žalbe na odluke – zahtjevi za transparentnost i ljudski nadzor iz Akta to podržavaju. U zapošljavanju, AI koja se koristi za zapošljavanje ili upravljanje ljudskim resursima (npr. sortiranje životopisa, rangiranje kandidata ili praćenje učinka zaposlenika) također je visokorizična digital-strategy.ec.europa.eu. Tvrtke koje koriste AI alate za zapošljavanje morat će paziti da su ti alati dizajnirani i testirani na pravičnost (kako ne bi putem AI-ja nesvjesno reproducirali, primjerice, spolnu pristranost). Akt bi mogao potaknuti promjene u industriji tehnologije zapošljavanja: neki automatizirani alati za zapošljavanje možda će trebati znatne nadogradnje ili dodatnu dokumentaciju da bi ih se uopće moglo koristiti u EU, a poslodavci se mogu vratiti procesima s većim udjelom ljudske procjene ako AI ne može zadovoljiti standarde. Minimalno, kandidati u EU-u vjerojatno će početi viđati obavijesti poput “AI može biti korišten u obradi vaše prijave”, a moći će i zatražiti ili očekivati objašnjenja odluka, u skladu s načelom transparentnosti. Pozitivna strana je veća pravičnost i odgovornost u zapošljavanju – AI više neće biti mistični “čuvar pristupa”, već nadziran alat. Izazov za odjele ljudskih resursa je implementacija ovih provjera usklađenosti bez da proces zapošljavanja postane prespor ili prekompliciran. Opet, regulatorni sandboxovi mogli bi pomoći: startup iz hr-tech sektora mogao bi testirati svoj AI alat za procjenu kandidata u sandboxu uz regulatora i dobiti povratnu informaciju kako zadovoljiti zahtjeve pravičnosti prije širenja na tržištu.

U drugim sektorima koji nisu izričito navedeni u aktu, utjecaj ovisi o konkretnim primjenama. Na primjer, kritična infrastruktura (energetske mreže, prometni sustavi) koja koristi AI za optimizaciju rada bit će visokorizična ako kvarovi mogu ugroziti sigurnost artificialintelligenceact.eu. Tako će komunalne i prometne tvrtke morati certificirati svoje AI sustave za upravljanje. Marketing i društvene mreže (npr. AI algoritmi za ciljano oglašavanje ili preporučivanje sadržaja) uglavnom spadaju u minimalni ili ograničeni rizik – na njih se ne primjenjuje strogo Akt o AI, iako se mogu primjenjivati drugi zakoni (DSA itd.).

Jedan sektor koji se izdvaja su proizvodi za potrošače i robotika – ako se umjetna inteligencija integrira u potrošačke proizvode (igračke, kućanske aparate, vozila), na snagu stupaju zakoni o sigurnosti proizvoda. Na primjer, igračka na pogon umjetne inteligencije koja komunicira s djecom može biti visokorizična, posebno ako postoji mogućnost da opasno utječe na ponašanje djece europarl.europa.eu. Akt posebno zabranjuje igračke koje koriste glasovnu umjetnu inteligenciju za poticanje štetnog ponašanja kod djece europarl.europa.eu. Zbog toga proizvođači igračaka i zabavnih sadržaja koji koriste AI moraju biti vrlo oprezni oko sadržaja i funkcionalnosti svojih proizvoda.

Općenito, industrije koje se bave ljudskim životima, prilikama ili pravima suočavaju se s najznačajnijim novim pravilima. Ovi sektori će vjerojatno doživjeti kulturnu promjenu prema “AI etici i usklađenosti” – s ulogama poput AI službenika za usklađenost ili etičkog recenzenta koji postaju uobičajeni. Iako može doći do početnog usporavanja dok se sustavi revidiraju i poboljšavaju, dugoročno bi u ovim područjima mogao nastati veći javni povjerenje u AI. Na primjer, ako roditelji vjeruju da je AI koji ocjenjuje njihovo dijete dobro nadziran radi pravednosti, bit će otvoreniji za umjetnu inteligenciju u obrazovanju.

Utjecaj na poslovanje: MSP-ovi, startupi i globalne kompanije

EU AI Act utjecat će na organizacije svih veličina, od agilnih startupa do multinacionalnih tehnoloških divova, osobito na one koji nude AI proizvode ili usluge u Europi. Troškovi i obveze usklađenosti neće biti zanemarivi, ali Akt uključuje mjere olakšica ili prilagodbe za manja poduzeća, a njegovo ekstrateritorijalno djelovanje znači da čak i globalne kompanije izvan EU moraju obratiti pozornost.

Mala i srednja poduzeća (MSP-ovi): MSP-ovi i startupi često su glavni inovatori u AI području – zapravo, procjenjuje se da 75% AI inovacija dolazi iz startupa seniorexecutive.com. EU je imala na umu da ne želi zatrti ove sudionike s prevelikim zahtjevima, pa Akt ima mjere prilagođene MSP-ovima. Kao što je ranije spomenuto, kazne za prekršaje razmjerne su i niže za MSP-ove u apsolutnim iznosima orrick.com, čime se male tvrtke štite od pogubnih kazni. Štoviše, Akt nalaže da budu dostupni regulatorni “sandboxes” besplatno i s prioritetnim pristupom za MSP-ove thebarristergroup.co.uk. Ovi sandboxes (koji će biti operativni do 2026. u svakoj članici) omogućit će startupima da testiraju AI sustave pod nadzorom i dobiju povratne informacije o usklađenosti bez straha od kazni tijekom faze testiranja. To je prilika za suradnju s regulatorima, gdje usklađenost postaje manje prepreka, a više proces zajedničkog dizajniranja proizvoda.

Dodatno, Europska komisija je uz Akt pokrenula i “AI Pact” i druge inicijative podrške digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI Pact je dobrovoljni program u kojem se firme pozivaju na rano usklađivanje i dijeljenje najboljih praksi, s posebnim naglaskom na pomoć akterima izvan velike tehnološke industrije da budu spremni. Akt također određuje da Ured za umjetnu inteligenciju mora ponuditi smjernice, predloške i resurse za MSP-ove artificialintelligenceact.eu. Vjerojatno ćemo vidjeti uzorke planova upravljanja rizicima ili kontrolne liste dokumentacije koju mali startup od 10 ljudi može koristiti umjesto da zaposli cijeli pravni tim.

Unatoč ovim potporama, mnogi startupi i dalje strahuju zbog opterećenja usklađivanjem. Zahtjevi (kao što je ranije opisano) poput sustava upravljanja kvalitetom ili procjene sukladnosti mogu biti zastrašujući za malo poduzeće s ograničenim osobljem. Postoji zabrinutost da bi inovacije mogle usporiti ili se geografski preusmjeriti: ako je prelazak na AI proizvod na europsko tržište prezahtjevan, startup ga može prvo lansirati drugdje (npr. u SAD-u), a investitori mogu preferirati regije s manje strožim pravilima seniorexecutive.com seniorexecutive.com. Kako je jedan tehnološki direktor rekao, jasna pravila ulijevaju povjerenje, ali previše restriktivna pravila “mogla bi odgurnuti odlično i vrijedno istraživanje u druge regije.” seniorexecutive.com. Neki startup osnivači smatraju Akt preširokim i opterećujućim, bojeći se da će tvrtke u ranoj fazi razvoja teško podnijeti troškove usklađivanja i odlučiti se preseliti izvan EU seniorexecutive.com.

Kako bi to ublažili, donositelji politika u EU najavili su da će standardi i postupci usklađivanja biti što jednostavniji. Na primjer, mogli bi postojati standardizirani moduli za procjenu sukladnosti koje mali ponuđač može slijediti ili certifikacijske usluge koje dijele troškove među više MSP-ova. Ideja “grantova za usklađenost” ili subvencija također je predložena od strane stručnjaka – to bi u biti značilo financiranje koje startupima pomaže da pokriju trošak ispunjavanja novih pravila seniorexecutive.com. Ako se takvi poticaji ostvare (možda na razini EU ili država članica), olakšat će teret novih obveza.

U svakom slučaju, MSP-ovi bi trebali započeti s mapiranjem svojih AI sustava prema kategorijama rizika i fokusirati se na visokorizične. Mnogi AI startupi mogu otkriti da je njihov proizvod zapravo minimalnog ili ograničenog rizika, te da trebaju samo dodati par obavijesti umjesto čitavog programa usklađivanja. Za one u visokorizičnim područjima (npr. medtech AI startupi ili startupi koji razvijaju HR alate), rana suradnja s regulatorima (putem sandboxes ili konzultacija) bit će ključna. Akt izričito potiče “pro-inovacijski pristup” u svojoj primjeni – što znači da regulatori trebaju uzeti u obzir potrebe manjih aktera i ne primjenjivati kazneni pristup “jedna veličina za sve”, posebno u početnoj fazi seniorexecutive.com. Vrlo je vjerojatno da će u praksi postojati svojevrsni grace period, gdje se tvrtke koje iskreno rade na usklađivanju vode savjetima umjesto da budu odmah kažnjene.

Globalne i ne-EU kompanije: Kao i GDPR, AI Act ima ekstrateritorijalni doseg. Ako je AI sustav stavljen na tržište EU ili se njegov izlaz koristi u EU, pravila mogu vrijediti, bez obzira gdje se nalazi davatelj usluge artificialintelligenceact.eu. To znači da američke, azijske i druge međunarodne tvrtke ne mogu ignorirati AI Act ako imaju korisnike ili klijente u Europi. Primjerice, tvrtka iz Silicijske doline koja europskim klijentima nudi AI alat za zapošljavanje morat će osigurati da taj alat ispunjava zahtjeve EU (ili njihovi klijenti neće moći legalno koristiti taj alat).

Za velike globalne tehnološke tvrtke (Google, Microsoft, OpenAI itd.) AI Act već utječe na poslovanje. Čak i prije usvajanja zakona, neke su tvrtke počele nuditi veću transparentnost ili mogućnosti kontrole u svojim AI proizvodima predviđajući regulativu. Na primjer, pružatelji generativne umjetne inteligencije rade na alatima za označavanje AI-generiranih izlaza, a neki su već objavili podatke o podacima korištenim za treniranje i ograničenjima modela kao odgovor na pritiske iz EU. Također, postoji argument da bi sukladnost s AI Actom mogla postati konkurentska prednost ili oznaka kvalitete – slično kao što se proizvodi “usuglašeni s GDPR-om” percipiraju kao dobri za privatnost, tako bi se i AI proizvodi “usuglašeni s EU AI Actom” mogli smatrati pouzdanijima na globalnom tržištu.

Ipak, globalne tvrtke moraju balansirati između različitih jurisdikcija. Pravila EU možda se neće savršeno poklapati s, primjerice, nadolazećim američkim zahtjevima. Neke američke savezne države ili savezne smjernice mogu biti u konfliktu ili zahtijevati drugačijo izvještavanje. Međunarodne tvrtke mogle bi zato standardizirati svoje poslovanje na najstroži režim (često upravo EU-ov) radi jedinstvenog globalnog pristupa – upravo se to dogodilo s GDPR-om, gdje su mnoge firme proširile GDPR prava na cijeli svijet. Možemo očekivati da će AI pružatelji globalno primijeniti EU-ove prakse transparentnosti (poput označavanja izlaza AI-a), radi dosljednosti. Akt bi tako mogao izvesti EU-ove norme “pouzdane umjetne inteligencije” u druge dijelove svijeta ako velike tvrtke implementiraju promjene u svim verzijama svojih proizvoda.

Ipak, fragmentacija je rizik: ako druge regije zauzmu drugačiji put, globalne tvrtke mogle bi morati održavati odvojene verzije AI proizvoda ili funkcionalnosti za različite regione. Na primjer, AI aplikacija bi mogla imati poseban “EU način rada” s više zaštitnih mjera. Dugoročno je to neučinkovito, što će povećati pritisak za međunarodno usklađivanje (o tome više u idućem odlomku).

Iz perspektive korporativne strategije, velike tvrtke će vjerojatno osnovati posebne timove za usklađenost s AI regulativom (ako već nisu) kako bi provjerili svoje AI sustave prema odredbama Akta. Možemo očekivati pojavu vanjskih AI revizorskih firmi koje će nuditi certifikacijske usluge – nastat će novi ekosustav nalik revizijama kibernetičke sigurnosti – kojeg će i velike i srednje tvrtke koristiti kako bi provjerile usklađenost prije nego im se javi službeni regulator.

Još jedna posljedica odnosi se na investicije: i VC investitori i poslovni kupci provodit će dubinsku analizu usklađenosti s AI Aktom. Startupi mogu od investitora dobiti pitanje: „Je li vaša procjena rizika prema AI Aktu dovršena? Sudjelujete li u sandboxu ili imate plan za CE označavanje ako je potrebno?“ – slično kao što je usklađenost s privatnošću postala kontrolna točka u investicijskim rundama nakon GDPR-a. Tvrtke koje mogu dokazati usklađenost mogu lakše sklopiti partnerstva i ostvariti prodaju u Europi, dok se one koje to ne mogu mogu smatrati rizičnijima.

Ukratko, za mala i srednja poduzeća (MSP) i startupe, Akt je dvosjekli mač – donosi jasnoću i potencijalno konkurentsku prednost za „odgovorna AI“ rješenja, ali i podiže ljestvicu za sudjelovanje u određenim visokorizičnim područjima. Za globalne tvrtke, Akt može djelovati kao de facto globalni standard za upravljanje umjetnom inteligencijom (kao što je GDPR učinio za zaštitu podataka), i poduzeća će morati integrirati ove zahtjeve u životni ciklus razvoja AI rješenja. EU se nada da će poticanjem povjerenja kroz regulaciju zapravo povećati uporabu AI – poduzeća i potrošači mogu se osjećati sigurnije u korištenju AI jer znaju da je reguliran. No to vrijedi samo ako je usklađenost dostižna; u protivnom bi inovacije mogle migrirati prema slabije reguliranim sredinama.

Posljedice za inovacije, ulaganja u AI i međunarodnu usklađenost

EU AI Akt pokrenuo je široku raspravu o svojim širim učincima na AI sektor – hoće li ugušiti inovacije ili ih potaknuti? Kako će utjecati na globalno upravljanje AI-jem? Evo nekoliko ključnih očekivanih učinaka:

Inovacije: kočnica ili akcelerator? Kritičari tvrde da bi stroga pravila Akta, osobito za visokorizični AI, mogla usporiti eksperimentalne inovacije, osobito za startupe koji su pokretači vrhunskog razvoja seniorexecutive.com. Zadaće usklađenosti (dokumentacija, procjene itd.) mogu produljiti razvojne cikluse i odvući resurse od čistog istraživanja i razvoja. Primjerice, AI istraživački tim mogao bi morati provesti dodatne mjesece na validaciji podataka i pisanju izvješća o usklađenosti prije lansiranja proizvoda. Postoji zabrinutost zbog mogućeg „odljeva inovacija“ gdje vrhunski AI stručnjaci ili tvrtke odluče poslovati u regijama s manje regulatornih prepreka seniorexecutive.com. Ako se Europa percipira kao prezahtjevna, sljedeći veliki AI proboj mogao bi nastati u SAD-u ili Aziji, pa se zatim prilagoditi Europi (ili se možda uopće neće nuditi na europskom tržištu).

Već smo svjedočili da su neki AI servisi (posebice neke generativne AI aplikacije) geo-blokirali korisnike iz EU ili odgodili lansiranje u EU zbog regulatorne neizvjesnosti. Kroz vrijeme, ako se Akt procijeni kao previše opterećujući, Europa riskira zaostajanje u AI implementaciji u odnosu na liberalnija okruženja.

S druge strane, mnogi u industriji smatraju kako jasna pravila mogu potaknuti inovacije smanjenjem neizvjesnosti seniorexecutive.com. Akt stvara predvidivo okruženje – tvrtke znaju „pravila igre“ i mogu inovirati s povjerenjem, jer ako slijede smjernice, njihov AI kasnije neće biti zabranjen ili naići na javnu osudu. Česta je tvrdnja da će Akt povećati povjerenje javnosti u AI, što je ključno za prihvaćanje novih tehnologija. Ako građani znaju da se sigurnost i pravednost AI-ja provjeravaju, rado će prihvatiti AI rješenja i tako proširiti tržište. Tvrtke će biti spremnije ulagati u AI projekte znajući da postoji okvir za usklađenost, umjesto da se boje „divljeg zapada“ bez nadzora, što bi moglo dovesti do skandala ili sudskih tužbi.

U biti, Akt pokušava postići ravnotežu: uvodi određenu „kočnicu“ (nadzor, odgovornost) s namjerom da omogući održivu inovaciju na dulje staze, a ne kratkotrajno natjecanje bez ograničenja. Uvođenje sandboxova i fokus na MSP-ove pokazuju da je EU svjesna da previše kočnica = gubitak inovacije te aktivno radi na ublažavanju tog rizika.

Postoji i argument da bi etička inovacija u AI području mogla postati konkurentska prednost. Europske tvrtke mogle bi se specijalizirati za AI koji je transparentan i usmjeren na čovjeka po dizajnu, što im daje prednost kako globalna potražnja za odgovornim AI-jem raste. Već sada alati za AI etiku i usklađenost postaju rastući sektor – od softvera za detekciju pristranosti do platformi za dokumentaciju modela – dijelom potaknuti očekivanim regulativama poput ove.

Ulaganja u AI: Kratkoročno, trošak usklađivanja predstavlja novu „poreznu“ stavku kod razvoja AI-ja, što može učiniti ulagače opreznijima ili ih navesti na preusmjeravanje sredstava prema potrebama za usklađenost. Neki VC i private equity fondovi mogli bi izbjegavati startupe u strogo reguliranim AI područjima, osim ako ti startupi nemaju jasan plan za usklađenost (ili ako tržišni potencijal ne nadmašuje trošak usklađivanja). S druge strane, mogli bismo vidjeti povećana ulaganja u određena područja:

  • RegTech za AI: Tvrtke koje nude rješenja za pomoć kod usklađivanja s AI Aktom (npr. AI revizorske usluge, automatizacija dokumentacije, alati za nadzor modela) mogle bi doživjeti procvat ulaganja kako potreba za njihovim proizvodima raste.
  • AI osiguranje i standardi: Moguća su ulaganja u AI projekte koji mogu ispuniti ili nadmašiti regulatorne zahtjeve te se tako istaknuti. Na primjer, AI model za koji je dokazano da je objašnjiv i fer mogao bi privući korisnike i ulagače impresionirane pristupom „usklađenosti po dizajnu“.

Sama EU usmjerava ulaganja u istraživanje i inovacije AI-ja utemeljene na povjerenju. Programi poput Horizon Europe i Digital Europe Programme namijenjeni su financiranju AI projekata koji naglašavaju transparentnost, robusnost i usklađenost s europskim vrijednostima. Javno financiranje tako se koristi da inovacije nastave, ali u smjerovima koje EU postavlja.

Moguća posljedica jest da će neki AI nišni sektori cvjetati u Europi (primjerice, AI za zdravstvo koji može dokazati sigurnosne koristi), dok bi drugi mogli zaostajati (npr. AI za moderaciju sadržaja na društvenim mrežama, ako se procijeni previše rizičnim ili složenim za usklađivanje). Također se može dogoditi pomak s AI-ja za krajnje potrošače na AI za poslovne korisnike u Europi – jer se AI koji je izravno usmjeren na potrošače može susresti s većom regulatornom pažnjom (posebno ako može utjecati na ponašanje), dok je enterprise AI koji se koristi interno lakše uskladiti s pravilima.

Globalna usklađenost ili fragmentacija: Na međunarodnom planu, EU AI Akt se pomno prati. Zaista bi mogao postati predložak koji će druge demokracije prilagoditi vlastitim potrebama. Već je Brazil prihvatio zakon s europskim modelom procjene rizika cimplifi.com, a zemlje poput Kanade izradile su AI zakone (AIDA zakon), usmjerene na visokoutjecajni AI i ublažavanje rizika cimplifi.com. Ovi su napori pod utjecajem europskog pristupa. Ako više jurisdikcija usvoji slične okvire, idemo prema usklađenosti – što je dobro za AI kompanije jer to znači manje različitih pravila za ispuniti.

No, nisu svi krenuli istim putem. Ujedinjeno Kraljevstvo je svjesno odabralo blaži, načelima vođen pristup i zasad izdaje smjernice putem regulatora za pojedine sektore, a ne kroz jedan zakon cimplifi.com. UK naglašava inovacije i tvrdi da ne želi prekomjerno regulirati mladu tehnologiju. Možda će kasnije uvesti vlastiti AI zakon, no vjerojatno manje detaljan nego europski. Japan i drugi također su signalizirali mekši pristup s fokusom na dobrovoljno upravljanje i etička načela, a ne obvezujuća pravila.

U Sjedinjenim Američkim Državama, trenutno ne postoji savezni AI zakon usporediv s europskim Aktom. Umjesto toga, SAD je izdao neobvezujući Blueprint for an AI Bill of Rights koji propisuje opća načela poput sigurnosti, nediskriminacije, zaštite podataka, transparentnosti i ljudskih alternativa weforum.org, ali to je više smjernica politike nego zakon s mogućnošću provođenja. U SAD-u je vjerojatnije da će doći do sektorski specifičnih AI regulacija (npr. FDA za medicinske AI uređaje, financijski regulatori za AI u bankarstvu) te oslanjanje na postojeće zakone za pitanja poput diskriminacije ili odgovornosti. Krajem 2023. i 2024. intenzivirala se aktivnost – administracija predsjednika Bidena izdala je Izvršnu uredbu o AI-ju (listopad 2023.) kojom se, među ostalim, zahtijeva da proizvođači naprednih modela dijele rezultate testiranja sigurnosti s vladom te se adresira AI u područjima poput biozaštite i građanskih prava. No to je izvršna mjera, a ne zakonodavni akt. Paralelno, Kongres održava saslušanja i radi na nacrtima zakona, no do sredine 2025. nijedan još nije izglasan. Vjerojatni scenarij za SAD je mozaik: neke savezne države imaju vlastite AI zakone (npr. pravila o transparentnosti AI generiranih deepfakeova ili pravila za AI alate za zapošljavanje), a savezne agencije provode postojeće zakone (FTC prati nepoštenu ili obmanjujuću AI praksu, EEOC za pristranost pri zapošljavanju putem AI-ja itd.) umjesto jednog cjelovitog akta.

To znači da kratkoročno, tvrtke očekuje različit regulatorni krajolik: strogi režim u EU, labaviji (ali razvijajući) režim u SAD-u i različiti modeli drugdje. Medijska analiza Senior Executive-a predviđa da će SAD ostati pri sektorskoj strategiji zbog konkurentnosti, dok će Kina nastaviti sa strogim nadzornim mjerama, a zemlje poput UK, Kanade i Australije vjerojatno primijeniti fleksibilne smjernice seniorexecutive.com. Ova divergencija može stvarati izazove – tvrtke će morati prilagođavati AI sustave potrebama pojedinih regija, što povećava troškove i smanjuje učinkovitost, a može i usporiti globalnu implementaciju AI-ja zbog višestrukih okvira za usklađenost.

S pozitivne strane, postoje aktivni napori za međunarodnu koordinaciju: EU i SAD kroz svoj Vijeće za trgovinu i tehnologiju imaju radnu skupinu za AI kako bi pronašli zajednički jezik (rade na temama poput terminologije i standarda AI-ja). G7 je pokrenuo Hiroshima AI Process sredinom 2023. kako bi raspravljao o globalnom upravljanju AI-jem, a jedna od ideja bila je razvoj kodeksa ponašanja za AI tvrtke na međunarodnoj razini. Organizacije poput OECD-a i UNESCO-a uspostavile su AI principe koje su potpisale mnoge zemlje (uključujući SAD, EU, pa čak i Kinu u slučaju OECD-a) – ti principi pokrivaju poznata područja (pravičnost, transparentnost, odgovornost). Nada je da bi oni mogli biti temelj za usklađivanje regulative.

Dugoročno, neki vjeruju da bismo mogli završiti s konvergencijom oko temeljnih principa čak i ako se pravni mehanizmi razlikuju seniorexecutive.com. Na primjer, gotovo svi se slažu da AI ne bi smio biti nesiguran ili očigledno diskriminatoran – kako će se ta očekivanja sprovoditi moguće je da će se razlikovati, ali je ishod (sigurniji, pravedniji AI) zajednički cilj. Moguće je da ćemo kroz dijaloge i eventualno međunarodne sporazume vidjeti djelomičnu harmonizaciju. Fragmentirani početak mogao bi na kraju dovesti do jedinstvenijeg skupa normi seniorexecutive.com, osobito kako se AI tehnologija sama globalizira (teško je postaviti geografsku ogradu oko AI mogućnosti u povezanom svijetu).

AI vodstvo i konkurencija: Postoji i geopolitički kut. EU se pozicionira kao lider u etičkom upravljanju AI-jem. Ako njihov model postane globalno prihvaćen, EU bi mogla imati veliki utjecaj u postavljanju standarda (baš kao što je GDPR utjecao na zaštitu podataka širom svijeta). S druge strane, ako se Zakon bude doživljavao kao prepreka europskoj AI industriji dok druge regije napreduju, EU bi mogla biti kritizirana zbog samonametnutih konkurentskih nedostataka. Američke tehnološke tvrtke trenutno vode u mnogim AI područjima, a Kina snažno ulaže u AI. Europska oklada je da će pouzdani AI dugoročno pobijediti nad nereguliranim AI-jem, ali to tek treba vidjeti.

Rani znakovi u 2025. sugeriraju pomiješane rezultate: Neke AI tvrtke ističu da ih europska pravila potiču na razvoj boljih internih kontrola (što je pozitivno), dok su druge pauzirale određene usluge u Europi (negativno). Također vidimo međunarodne tvrtke u kontaktu s EU regulatorima – primjerice, veliki AI laboratoriji raspravljaju s EU o implementaciji, primjerice, vodenih žigova na AI sadržaj, što pokazuje da Zakon već utječe na globalni dizajn njihovih proizvoda.

Iz perspektive ulaganja i istraživanja, može se očekivati da će se više AI istraživanja usmjeriti na područja poput objašnjivosti, smanjenja pristranosti i provjere – jer su ona nužna za usklađenost. EU ulaže puno sredstava u istraživanja ovih područja što bi moglo dovesti do proboja koji AI čine inherentno sigurnijim i lakšim za regulaciju (npr. nove metode za interpretaciju neuronskih mreža). Ako se takvi proboji dogode, mogli bi koristiti svima, a ne samo Europi.

Zaključno, europski Zakon o AI-ju je hrabar regulatorni eksperiment koji bi mogao postaviti globalne standarde za upravljanje AI-jem ili, ako bude loše kalibriran, riskira izolaciju europskog AI ekosustava. Najvjerojatnije će imati značajan utjecaj na oblikovanje: inovacije u AI-ju neće stati, ali će se prilagoditi kako bi uključile regulatorne zaštite. Tvrtke i ulagači prilagođavaju strategije – ugrađuju usklađenost u svoje razvojne planove proizvoda, uračunavajući trošak poslovanja s AI-jem u EU, a neki se mogu preusmjeriti na aplikacije s nižim rizikom ili na druga tržišta. Na globalnoj razini smo na raskrižju: hoće li svijet slijediti EU (dovodeći do ujednačenijih globalnih AI standarda) ili ćemo vidjeti podjelu gdje se AI razvija pod različitim regulatornim filozofijama? Sljedećih nekoliko godina, kada zakon uđe u punu primjenu i druge zemlje reagiraju, bit će presudne.

Globalni AI propisi: EU Akt vs SAD i Kina (i ostali)

EU Zakon o AI-ju ne postoji u vakuumu – on je dio šireg globalnog pokreta za rješavanje izazova AI-ja. Usporedimo ga s pristupima u Sjedinjenim Američkim Državama i Kini, dvjema AI supersilama s vrlo različitim regulatornim filozofijama, kao i s još nekoliko drugih:

Sjedinjene Američke Države (Nacrt Zakona o AI pravima & Novonastale politike): SAD je dosad zauzeo manje centraliziran, više načelima vođen pristup. U listopadu 2022., Ured Bijele kuće za znanost i tehnološku politiku objavio je Nacrt Zakona o AI pravima, koji sadrži pet vodećih principa za dizajn i upotrebu automatiziranih sustava weforum.org:

  1. Sigurni i učinkoviti sustavi – Amerikanci trebaju biti zaštićeni od nesigurnog ili neispravnog AI-ja (npr. AI treba biti testiran i nadziran kako bi se osigurala njegova učinkovitost za namijenjenu svrhu) weforum.org.
  2. Zaštita od algoritamske diskriminacije – AI sustavi ne bi smjeli nepravedno diskriminirati te ih treba koristiti na pravične načine weforum.org. Ovo je povezano s postojećim zakonima o građanskim pravima; ukratko, AI ne bi smio biti rupa u zakonu koja dopušta diskriminaciju tamo gdje bi ljudska odluka bila protuzakonita.
  3. Privatnost podataka – Ljudi trebaju imati kontrolu nad time kako se njihovi podaci koriste za AI te biti zaštićeni od zloupotrebe podataka weforum.org. Ovo ne uvodi novi zakon o privatnosti, ali naglašava da AI ne bi trebao kršiti privatnost i da bi trebao koristiti minimalne količine podataka.
  4. Obavijest i objašnjenje – Ljudi trebaju znati kada se koristi AI sustav te razumjeti zašto je donio odluku koja na njih utječe weforum.org. Ovo zahtijeva transparentnost i objašnjivost, slično kao i EU zahtjevi transparentnosti.
  5. Ljudske alternative, razmatranje i povratna mogućnost – Kad je to prikladno, treba postojati mogućnost isključivanja ili ljudske intervencije weforum.org. Npr., ako ti AI odbije nešto važno (poput kredita), treba postojati mogućnost žalbe čovjeku ili ponovnog razmatranja.

Ovi principi odražavaju mnoge ciljeve EU zakona (sigurnost, pravičnost, transparentnost, ljudski nadzor), ali ključna razlika je što AI Bill of Rights nije zakon – to je okvir politike bez obvezujuće snage weforum.org. Za sada se primjenjuje uglavnom na savezne agencije, usmjeravajući način na koji vlada nabavlja i koristi AI. Očekuje se i da postavi primjer industriji, a neke tvrtke su već pokazale podršku tim principima. Međutim, usklađenost je dobrovoljna; ne postoje kazne izravno vezane uz AI Bill of Rights.

Osim toga, SAD se trenutno oslanja na postojeće zakone za kažnjavanje značajnih zloupotreba vezanih uz AI. Na primjer, Federal Trade Commission (FTC) upozorila je tvrtke da može kazniti nepravedne ili obmanjujuće prakse koje se odnose na AI (kao što su lažne tvrdnje o sposobnostima AI-ja ili upotreba AI-ja koja uzrokuje štetu potrošačima). Equal Employment Opportunity Commission (EEOC) ispituje kako se zakoni o zapošljavanju odnose na AI alate za zapošljavanje – npr. ako AI sustavno odbija starije kandidate, to bi moglo biti kršenje zakona protiv diskriminacije. Dakle, provedba u SAD-u se događa, ali kroz opće zakone, a ne kroz one posebno usmjerene na AI.

Ipak, situacija u SAD-u počinje se mijenjati. U razdoblju 2023-2024. vode se ozbiljne rasprave u Kongresu oko AI regulative, potaknute brzim rastom generativnog AI-ja. Predloženo je više zakona o AI-ju (koji se bave temama od označavanja deepfake sadržaja do transparentnosti AI-ja i odgovornosti), ali nijedan još nije usvojen. Razmatra se osnivanje saveznog AI instituta za sigurnost ili davanje novih ovlasti agencijama za nadzor AI-ja. Izgleda vjerojatno da će SAD u idućim godinama razviti konkretniju AI regulativu, ali najvjerojatnije ciljano, a ne poput sveobuhvatnog europskog zakona. SAD ima tendenciju regulirati po sektorima – primjerice, AI u zdravstvu treba zadovoljiti smjernice FDA (koja već izdaje smjernice za „softver kao medicinski uređaj“), a postoji interes među financijskim regulatorima (kao što su CFPB ili OCC) za AI kreditne modele i primjenu postojećih zakona za osiguranje pravičnosti.

Jedno područje u kojem je SAD odlučno djelovao je AI vezan uz nacionalnu sigurnost: posljednja izvršna uredba američke Vlade zahtijeva od developera naprednih AI modela da dijele rezultate sigurnosnih testova s vladom ako njihovi modeli mogu imati implikacije na nacionalnu sigurnost (npr. modeliranje opasnih bioloških agensa). Ovo je mnogo fokusiraniji pristup od EU, koja nema poseban izuzetak za nacionalnu sigurnost osim onih u vezi s provedbom zakona.

Zaključno, američki pristup trenutno je blagog reguliranja i temeljen na principima, s naglaskom na inovacije i postojeći pravni okvir. Tvrtke se potiču (ali još nisu prisiljene) slijediti etičke smjernice. Razlika od EU je što EU te principe provodi zakonom, s provjerama i novčanim kaznama, dok ih SAD za sada koristi kao preporuke i oslanja se na tržišne sile te opće zakone za provedbu. Hoće li se SAD naposljetku više približiti EU (donoseći vlastiti zakon o AI-ju ili skup pravila) ključno je pitanje. Ima onih u SAD-u koji zagovaraju više regulacije radi sigurnosti i javnog povjerenja, ali i onih koji upozoravaju na prekomjernu regulaciju koja bi mogla ugušiti tehnološku industriju. Možda ćemo vidjeti sredinu: npr. zahtijevati transparentnost u nekim kritičnim AI sustavima ili certificiranje AI-ja u osjetljivim područjima bez potpune podjele po klasama rizika.

Kineski propisi i standardi o umjetnoj inteligenciji: Kina ima potpuno drugačiji politički sustav i njezino upravljanje umjetnom inteligencijom odražava njezine prioritete: društvenu stabilnost, kontrolu informacija i strateško vodstvo u području umjetne inteligencije. Kina vrlo brzo širi svoj regulatorni okvir, s pristupom koji je strogo usmjeren na sadržaj i upotrebu, a često se provodi putem administrativnih pravila.

Ključni elementi kineskog pristupa uključuju:

  • Obavezna provjera i cenzura AI sadržaja: U kolovozu 2023. Kina je implementirala Privremene mjere za generativne AI usluge cimplifi.com. Ova pravila zahtijevaju da bilo koji javno ponuđen generativni AI (kao što su chatbotovi ili generatori slika) mora osigurati da sadržaj bude u skladu s temeljnim socijalističkim vrijednostima te bude zakonit i istinit. Pružatelji moraju proaktivno filtrirati zabranjeni sadržaj (bilo što što bi se moglo smatrati subverzivnim, opscenim ili na drugi način nezakonitim prema kineskom režimu cenzure). To znači da kineske AI kompanije ugrađuju robusnu moderaciju sadržaja. Pravila također zahtijevaju označavanje AI-generiranog sadržaja kada može zbuniti ljude o tome što je stvarno cimplifi.com. Vrlo slično zahtjevima EU za označavanje deepfakeova, ali u Kini je to predstavljeno kao način sprječavanja dezinformacija koje bi mogle izazvati društveni nemir.
  • Registracija algoritama: Čak i prije pravila o generativnoj umjetnoj inteligenciji, Kina je imala regulativu za preporučujuće algoritme (na snazi od početka 2022.). Kompanije su morale registrirati svoje algoritme pri Cyberspace Administration of China (CAC) i dostaviti informacije o načinu njihova rada. Ovaj centralni registar zamišljen je radi nadzora; vlasti žele znati koji se algoritmi koriste, posebno oni koji utječu na javno mnijenje (kao što su algoritmi za vijesti).
  • Verifikacija pravog identiteta i kontrola podataka: Kineska regulativa često zahtijeva da korisnici AI usluga budu registrirani pod pravim identitetom (kako bi se obeshrabrila zloupotreba i omogućilo praćenje tko je izradio koji sadržaj). Podaci korišteni za treniranje AI-ja, osobito oni koji mogu uključivati osobne informacije, podliježu kineskom Zakonu o sigurnosti podataka i Zakonu o zaštiti osobnih podataka. Tako kineske kompanije moraju navigirati i zahtjeve o pristupu podacima od strane vlasti (vlada može zahtijevati pristup podacima i algoritmima radi sigurnosti).
  • Sigurnosne procjene: U razdoblju 2024.-2025. kinesko tijelo za standarde (NISSTC) objavilo je nacrt sigurnosnih smjernica za generativnu umjetnu inteligenciju cimplifi.com. One detaljno opisuju tehničke mjere za rad s podacima za treniranje, sigurnost modela itd., u skladu s naglaskom vlasti na AI koji se ne može lako zloupotrijebiti ili proizvoditi zabranjeni sadržaj. U ožujku 2025. CAC je finalizirao Mjere za upravljanje oznakama AI-generiranog sadržaja (kao što je spomenuto), koje od rujna 2025. obvezno nameću jasno označavanje svakog AI-generiranog sadržaja cimplifi.com. Ovo se poklapa sa sličnim pravilom EU, iako kineski razlog djelomično uključuje borbu protiv “glasina” i održavanje kontrole nad informacijama.
  • Široki etički okviri: Kina je također objavila načela na visokoj razini – na primjer, 2021. Ministarstvo znanosti i tehnologije izdalo je etičke smjernice za AI koje govore o tome da on treba biti usmjeren na čovjeka i da bude kontrolabilan. Godine 2022. Nacionalni odbor za upravljanje AI-jem (višedionička skupina) izdao je dokument Načela upravljanja umjetnom inteligencijom naglašavajući harmoniju, pravednost i transparentnost. A u 2023., Kina je izdala Okvir za sigurnost umjetne inteligencije usklađen sa svojom globalnom AI inicijativom, naglašavajući pristup usmjeren na ljude i kategorizaciju rizika cimplifi.com. Ovo djelomično podsjeća na načela OECD-a ili EU-a, pokazujući da Kina također želi biti viđena kao promotor „odgovorne AI“, iako u svojem kontekstu (npr. pravednost u Kini može značiti sprječavanje pristranosti prema etničkim manjinama, ali također i osiguranje da AI ne ugrožava nacionalno jedinstvo).
  • Stroga upotreba (ili zloupotreba) u provođenju zakona: Dok EU zabranjuje mnoge aplikacije biometrije u stvarnom vremenu, Kina je lider u upotrebi AI nadzora (poput prepoznavanja lica na javnim mjestima, nadzora „pametnih gradova” itd.). Postoje neka pravila kako bi se osiguralo da policija koristi AI za sigurnost i pod kontrolom, ali općenito država ima široke ovlasti. Sustav društvenih kredita postoji u osnovnom obliku (uglavnom financijski kredit i sudski zapisi), i nije onoliko „sci-fi“ kako se često prikazuje, dok ga EU izričito zabranjuje kao što percipira „društveno ocjenjivanje“.

Učinkovito, kineski propisi su strogi po pitanju kontrole sadržaja i etičkih smjernica, ali se implementiraju odozgo prema dolje. Ako je EU Akt o osnaživanju pojedinaca i osiguravanju odgovornosti procesa, kineski pristup je o kontroli pružatelja i osiguravanju da AI ne ugrozi ciljeve države. Za poslovanje, usklađenost u Kini znači tesnu suradnju s vlastima, ugradnju cenzure i izvještajnih mehanizama, te usklađivanje s nacionalnim ciljevima (npr. koristiti AI za ekonomski razvoj, ali ne i za neslaganje).

Može se reći da je kineski režim „strogi, ali drugačiji“: ne naglašava javnu transparentnost (prosječan kineski korisnik možda neće dobiti objašnjenje zašto je AI donio određenu odluku), već naglašava sljedivost i uvid vlade u AI sustave. Također izravno zabranjuje upotrebe koje bi na Zapadu u određenoj mjeri bile dopuštene (poput nekih oblika političkih izjava putem AI-ja).

Kineske AI kompanije, poput Baidua ili Alibabe, morale su povući ili ponovno trenirati modele koji su proizvodili politički osjetljive rezultate. Razvoj velikih modela u Kini snažno je pod utjecajem tih pravila – unaprijed filtriraju podatke za treniranje kako bi uklonili tabu sadržaje i fino podešavaju modele kako bi izbjegli određene teme.

Zanimljivo, neki kineski zahtjevi (kao označavanje deepfakeova) preklapaju se s europskim, iako iz nešto drugačijih razloga. To pokazuje potencijalno područje konvergencije tehničkih standarda – označavanje AI-generiranih medija moglo bi postati globalna norma, čak i ako se motivi razlikuju (EU: zaštita od prijevara; Kina: to, plus održavanje kontrole).

Druge zemlje: Izvan ove tri, nekoliko vrijednih spomena:

  • Kanada: Kao što je ranije spomenuto, Kanada je predložila Akt o umjetnoj inteligenciji i podacima (AIDA) kao dio Zakona C-27 cimplifi.com. Ciljao je na „sustave umjetne inteligencije visokog utjecaja“ s zahtjevima za procjene učinka i određenim zabranama. Međutim, zakon je zapeo (početkom 2025. nije bio donesen, praktički je „umro“ u Parlamentu za sada cimplifi.com). Kanada bi ga mogla ponovno pokrenuti kasnije. U međuvremenu, Kanada se pridržava načela iz članstva u organizacijama poput OECD-a.
  • Ujedinjeno Kraljevstvo: UK, za razliku od EU, objavio je Bijelu knjigu o AI regulaciji (ožujak 2023.) s naglaskom na pro-innovacijske i blage propise. Plan UK je da postojeći regulatori (poput tijela za zdravlje i sigurnost, Financijske uprave itd.) izdaju AI smjernice relevantne za svoje sektore, temeljem zajedničkih načela (sigurnost, transparentnost, pravednost, odgovornost, mogućnost osporavanja) cimplifi.com. Namjerno su odlučili ne uvoditi odmah novi zakon o AI-ju. UK prati kako će se EU Akt razvijati i možda će se prilagoditi, ali žele zadržati fleksibilnost, osobito kako bi privukli AI kompanije. Također su domaćini AI Safety Summit-a (održanog u studenom 2023.) kako bi se pozicionirali u globalnim AI raspravama. Pristup UK mogao bi donijeti manje ograničenja kratkoročno, ali bi se mogao promijeniti ako se AI rizici materijaliziraju.
  • Ostali u EU-orbiti: Vijeće Europe (šire od EU-a) radi na AI Konvenciji koja bi mogla biti pravno obvezujući ugovor o etici i ljudskim pravima u AI-ju – još je u izradi, ali ako se dogovori, mogla bi vezivati potpisnice (uključujući neke ne-EU europske države) na načela slična EU Aktu, ali više na razini principa.
  • Indija, Australija itd.: Mnoge države objavile su etičke smjernice za AI. Indija, primjerice, ima pristup temeljen na okviru i više se usklađuje s inovacijama, trenutačno ne planira poseban zakon o AI-ju, već se fokusira na izgradnju kapaciteta i sektorske smjernice. Australija razvija okvire temeljene na riziku, ali vjerojatno još ne uvodi strogi zakon. Opći trend je svi prepoznaju potrebu za upravljanjem AI-jem, ali razina strogih propisa u odnosu na “meko” vodstvo varira.
  • Globalni forumi: UNESCO-va Preporuka o AI etici (2021.) podržalo je gotovo 200 država i pokriva načela kao što su proporcionalnost, sigurnost, pravednost itd. Nije obvezujuće, ali ukazuje na globalni konsenzus o vrijednostima. OECD-ova AI načela (2019.) također su široko prihvaćena i poslužila su G20 kao temelj. Ta globalna načela vrlo su slična EU pristupu na papiru. Izazov je implementacija u praksi na sličan način diljem granica.

Svjetski ekonomski forum i druge skupine također posreduju u dijalogu. Kao što je spomenuto u članku WEF-a, otvoreno je pitanje imamo li situaciju „različitih puteva“ (gdje SAD, Kina i EU idu svaki svojim regulatornim smjerom) ili „domino efekt“ gdje potez EU potiče druge na praćenje weforum.org seniorexecutive.com. Dokazi postoje za oba pristupa: EU je jasno utjecala na Brazil i Kanadu; SAD možda ublažava neka stajališta zbog pritiska EU (npr. rasprava o većoj transparentnosti može biti reakcija na EU zahtjeve); kinesko usklađivanje je djelomično (dijele ideje o tehničkim standardima, ali ne i o demokratizaciji).

Ukratko, pojednostavljena usporedba mogla bi biti:

  • EU: Sveobuhvatna, pravno obvezujuća regulativa kroz sektore na temelju rizika; fokus na temeljnim pravima, uz strogo provođenje (kazne, nadzorna tijela).
  • SAD: Nema jedinstvenog zakona (do 2025.); oslanjanje na široka načela (AI Bill of Rights) i sektorsku provedbu; fokus na inovacijama i postojećim okvirima prava; za sada više samoregulacije industrije.
  • Kina: Detaljna državna pravila za kontrolu AI rezultata i upotrebe; naglasak na sigurnosti, cenzuri i nadzoru vlade; obavezna usklađenost s etičkim normama koje određuje država; provedba putem državnih agencija s ozbiljnim kaznama (uključujući kazneno gonjenje, ako se prekrše pravila države).

Unatoč razlikama, sve tri prepoznaju pitanja poput pristranosti, sigurnosti i transparentnosti – samo ih različito postavljaju kao prioritete i provode. Za globalnu tvrtku to znači navigirati trima režimima: pridržavanje proceduralne rigoroznosti EU-a, slijediti američke smjernice i nove državne propise, te primjenjivati kineska pravila o sadržaju i zahtjeve za registraciju ako posluju tamo. To je izazovno, a postojat će i pritisak na međunarodnim forumima da se smanji opterećenje harmonizacijom određenih aspekata (primjerice, razvojem zajedničkih tehničkih standarda za upravljanje rizicima AI-ja koji bi zadovoljili regulatore u više jurisdikcija).

Jedan obećavajući znak: suradnja na AI standardima (tehničkim standardima putem ISO/IEC ili drugih tijela) mogla bi omogućiti tvrtkama da razvijaju AI prema jednom skupu specifikacija koji se potom široko prihvaća. Čak i EU Akt spominje da će pridržavanje usklađenih europskih standarda (nakon što postoje za AI) dati pretpostavku usklađenosti artificialintelligenceact.eu. Ako su ti standardi usklađeni s globalnima, tvrtka bi mogla „napraviti jednom, uskladiti se globalno”.

Na kraju, gledajući naprijed, kako se AI tehnologija razvija (s nečim poput GPT-5 ili autonomnijih AI sustava), regulativa će se također razvijati. EU je ugradio mehanizme pregleda za ažuriranje svog Akta. SAD i druge države mogle bi donijeti nove zakone ako dođe do velikog AI incidenta koji potakne reakciju (slično kao što su neki podaci o povredama potaknuli jače zakone o privatnosti). Međunarodno usklađivanje također bi moglo biti potaknuto nužnošću – na primjer, ako AI počne imati značajan prekogranični utjecaj (poput financijske krize izazvane AI-jem ili slično), zemlje će morati surađivati da bi ga upravljale.

Za sada, svaka organizacija koja želi “biti ispred” u AI-ju treba pratiti sve ove aspekte: uskladiti se s EU regulativom je nužno za pristup tržištu EU, američke najbolje prakse su ključne za to veliko tržište, a razumijevanje kineskih zahtjeva je ključno za one koji tamo posluju. Proaktivan pristup – ugrađivanje etičkih i sigurnih AI načela interno – stavit će tvrtku u dobar položaj za upravljanje ovim različitim režimima. To često znači razvijanje internog okvira za upravljanje AI-jem koji zadovoljava najstrože standarde među njima (često EU-ove), a zatim prilagodbu po regijama prema potrebi.

Zaključno, EU AI Akt od 2025. postavlja tempo u regulaciji AI-ja, i iako donosi izazove, također nudi strukturirani put prema povjerljivom AI-ju. Tvrtke i vlade diljem svijeta to prate i reagiraju – neke pojačavajući vlastite propise, druge ističući inovacije. Nadolazeće godine će pokazati kako će ti pristupi međudjelovati i hoćemo li postići usklađenije globalno upravljanje ili ćemo se suočiti s „krpanjem” kroz koje će developeri AI-ja pažljivo morati navigirati. U svakom slučaju, oni koji prate informacije i rano se pripreme – razumiju nijanse EU Akta, ulažu u mogućnosti usklađenosti i sudjeluju u kreiranju politika – bit će najbolje pozicionirani za uspjeh u ovoj novoj eri AI nadzora.

Izvori:

Odgovori

Your email address will not be published.

Don't Miss

Dubai Real Estate Market 2025: Trends, Analysis & Forecast to 2030

Tržište nekretnina u Dubaiju 2025.: Trendovi, analiza i prognoza do 2030.

Pregled (2025.): Sektor nekretnina u Dubaiju ušao je u 2025.
Real Estate Market in Poland – Comprehensive Report

Tržište nekretnina u Poljskoj – sveobuhvatno izvješće

Uvod i pregled tržišta Poljska je najveće tržište nekretnina u