EU zakon o veštačkoj inteligenciji 2025: Sve što treba da znate da biste ostali u prednosti

јун 20, 2025
EU AI Act 2025: Everything You Need to Know to Stay Ahead

Увод и законодавни преглед

Акт Европске уније о вештачкој интелигенцији (EU AI Act) је први свеобухватни оквир за регулацију ВИ у свету, са циљем да обезбеди поуздану вештачку интелигенцију која поштује безбедност, основна права и друштвене вредности digital-strategy.ec.europa.eu. Закон је предложила Европска комисија у априлу 2021. године и, након опсежних преговора, формално је усвојен средином 2024. europarl.europa.eu europarl.europa.eu. Успоставља приступ заснован на ризику у управљању ВИ, намећући обавезе које су сразмерне потенцијалној штети коју ВИ систем може проузроковати artificialintelligenceact.eu.

Законодавна линија времена: Кључне прекретнице укључују одобрење Европског парламента у периоду 2023–2024. и званично објављивање 12. јула 2024., чиме је закон ступио на снагу 1. августа 2024. artificialintelligenceact.eu artificialintelligenceact.eu. Међутим, одредбе ће се примењивати постепено током наредних година:

  • 2. фебруар 2025: Забрана ВИ система неприхватљивог ризика. Све ВИ праксе које се сматрају „неприхватљивим ризиком“ (види доле) од овог датума постају забрањене europarl.europa.eu. Земље чланице ЕУ ће такође почети са увођењем програма писмености о ВИ за едукацију јавности о вештачкој интелигенцији artificialintelligenceact.eu.
  • 2. август 2025: Правила транспарентности и управљања ступају на снагу. Нова правила за моделе ВИ опште намене (foundation models) и тела за управљање ВИ почињу да важе artificialintelligenceact.eu digital-strategy.ec.europa.eu. Канцеларија за ВИ на нивоу ЕУ (касније објашњено) постаје оперативна, а казне за непоштовање се могу изрицати од овог тренутка orrick.com orrick.com.
  • 2. август 2026: Потпуна примена кључних захтева. Већина обавеза закона о ВИ – посебно за примену ВИ система високог ризика – постаје обавезна 24 месеца након ступања на снагу digital-strategy.ec.europa.eu. До овог датума, добављачи нових система високог ризика морају да поступају по Акту пре него што их пласирају на тржиште ЕУ.
  • 2. август 2027: Последњи рокови истичу. Одређени ВИ системи интегрисани у регулисане производе (попут медицинских уређаја покретаних ВИ) имају дужи прелазни период (36 месеци) до 2027. године да би испунили услове digital-strategy.ec.europa.eu. Такође, пружаоци постојећих модела ВИ опште намене (који су на тржишту пре августа 2025.) морају их ажурирати у складу са условима Актa до 2027. artificialintelligenceact.eu.

Ова фазна линија времена даје организацијама време да се прилагоде, док ране мере (попут забране штетних ВИ употреба) без одлагања решавају најозбиљније ризике europarl.europa.eu. Следи детаљан преглед система класификације ризика у Акту и шта он значи за заинтересоване стране у домену ВИ.

Класификација заснована на ризику: Неприхватљив, висок, ограничен и минималан ризик

Према Акту о ВИ ЕУ, сваки ВИ систем класификује се по нивоу ризика, од чега зависи како ће бити регулисан artificialintelligenceact.eu. Четири нивоа ризика су:

  • Неприхватљив ризик: Ове употребе ВИ представљају јасну претњу по безбедност или основна права и строго су забрањене у ЕУ digital-strategy.ec.europa.eu. Закон изричито забрањује осам таквих пракси, укључујући: ВИ која користи суптилне или манипулативне технике које изазивају штету, експлоатише рањиве групе (као што су деца или особе са инвалидитетом) на штетан начин, владин „социјални скоринг“ грађана и одређене алате за предиктивно полицијско деловање artificialintelligenceact.eu artificialintelligenceact.eu. Посебно је даљинска биометријска идентификација у реалном времену (нпр. уживо препознавање лица на јавним местима) од стране полиције уопштено забрањена digital-strategy.ec.europa.eu. Ограничене изузетке постоје – рецимо, полиција може користити препознавање лица у реалном времену ради спречавања непосредне терористичке претње или тражења несталог детета, али само уз судску ауторизацију и строгу контролу europarl.europa.eu. Суштински, сваки ВИ систем чија је сама употреба у супротности са вредностима ЕУ (нпр. социјално оцењивање или ВИ која неосновано предвиђа криминално понашање) не може се применити digital-strategy.ec.europa.eu.
  • Висок ризик: ВИ системи који представљају озбиљне ризике по здравље, безбедност или основна права убрајају се у категорију високог ризика. Ови системи су дозвољени на тржишту само ако су обезбеђене детаљне мере заштите. Високоризичне употребе се дефинишу на два начина: (1) ВИ компонента је безбедносно критична и већ регулисана законима ЕУ о безбедности производа (нпр. ВИ у медицинским уређајима, аутомобилима, ваздухопловству и сл.) artificialintelligenceact.eu; или (2) ВИ апликација у специфичним областима наведеним у Анексу III закона artificialintelligenceact.eu. Анекс III покрива области попут критичне инфраструктуре, образовања, запошљавања, јавних услуга, полиције, граничне контроле и правосуђа europarl.europa.eu europarl.europa.eu. На пример, Акт сматра да је ВИ употребљен у образовању (нпр. оцењивање испита или упис у школе) високоризичним, због великог утицаја на животне могућности појединца digital-strategy.ec.europa.eu. Такође, ВИ за запошљавање или управљање радницима (попут алата за аутоматско скенирање радне биографије) и системи за оцену кредитне способности улазе у високоризичне употребе digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Чак су и хируршки роботи или дијагностички ВИ алати у здравству високоризични, било зато што су део медицинског уређаја, било због ризика по пацијенте digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. ВИ високог ризика је строго регулисан – пре него што се примени, добављачи морају спровести строге мере контроле ризика и проћи процедуру оцењивања усклађености (детаљи у следећем одељку) cimplifi.com. Сви ВИ системи високог ризика биће такође регистровани у ЕУ базу ради транспарентности и надзора cimplifi.com. Важно је и то што Закон предвиђа уже изузетке па неће и најтривијалније употребе у овим областима бити аутоматски високо ризичне – нпр. ако ВИ само помаже у доношењу одлуке или обрађује делимичан задатак, може бити изузет из ове категорије artificialintelligenceact.eu. Ипак, свака ВИ примена која врши осетљиве функције у наведеним секторима третира се као високоризична и мора испуњавати строге услове усклађености.
  • Ограничени ризик: Ова категорија обухвата ВИ системе који нису високоризични али захтевају извесне мере транспарентности artificialintelligenceact.eu. Закон не намеће велике контроле овим системима осим обавезе да људи буду обавештени када користе ВИ. На пример, чет ботови или виртуелни асистенти морају јасно информисати кориснике да комуницирају са машином, а не човеком digital-strategy.ec.europa.eu. Слично, генеративна ВИ која креира синтетичке слике, видео или аудио (нпр. deepfake садржај) мора бити дизајнирана тако да означи ВИ садржај – рецимо, путем водених жигова или етикете – како би гледаоци знали да су у питању ВИ креације europarl.europa.eu digital-strategy.ec.europa.eu. Циљ је очување људског поверења кроз транспарентност. Поред тих правила о обавештавању, ВИ са ограниченим ризиком може се слободно користити без претходног одобрења. Већина ВИ алата намењених потрошачима обухваћена је овом категоријом, где је основни захтев – да корисник буде јасно обавештен. Пример је ВИ који мења глас или прави реалистичну слику – није забрањен, али мора јасно бити означен као ВИ креација да не би до свође до обмане europarl.europa.eu.
  • Минималан (или никакав) ризик: Сви остали ВИ системи улазе у овај најнижи ниво, који чини огромну већину ВИ апликација. Ови системи представљају занемарљив или стандардни ризик и зато немају никакве нове регулаторне обавезе по Акту о ВИ artificialintelligenceact.eu digital-strategy.ec.europa.eu. Уобичајени примери: филтери за спам е-поште, алгоритми за препоруке, ВИ у видео играма или тривијалне ВИ функције уграђене у софтвер. За ове, Закон је практично потпуно ненаметљив – могу се развијати и користити као до сада, под важећим општим законима (закон о заштити потрошача, приватности и др.), али без додатних ВИ процедура. ЕУ посебно истиче да је већина постојећих ВИ система нискоризична и да не треба бити претерано регулисана digital-strategy.ec.europa.eu. Регулатива циља ванредне случајеве (висок и неприхватљив ризик), док ВИ минималног ризика остаје без терета, чиме се подстиче даљи развој иновација у овој области.

Укратко, ризични модел ЕУ потпуно забрањује најгоре ВИ праксе, строго контролише осетљиве употребе ВИ и минимално регулише остале cimplifi.com. Овакав фазни приступ има за циљ да заштити грађане од штете, а да се избегне јединствена регулација свих ВИ система. У наставку ћемо објаснити шта усклађеност значи за оне који развијају или примењују ВИ, нарочито у области високог ризика.

Obaveze za AI programere (provajdere) i korisnike (deployere)

Zahtevi za usklađenost visokorizičnih AI sistema: Ako razvijate AI sistem koji se smatra visokorizičnim, EU zakon o veštačkoj inteligenciji (AI Act) nameće detaljnu listu obaveza pre i nakon što se sistem plasira na tržište. Ove obaveze u suštini odražavaju prakse iz industrija kritičnih za bezbednost i zaštitu podataka, koje se sada primenjuju i na AI. Provajderi (programeri koji plasiraju sistem na tržište) visokorizičnih AI sistema moraju, između ostalog:

  • Implementirati sistem za upravljanje rizicima: Potreban je kontinuiran proces upravljanja rizicima tokom celog životnog ciklusa AI sistema artificialintelligenceact.eu. Ovo podrazumeva identifikaciju predvidivih rizika (npr. opasnosti po bezbednost, rizike od pristrasnosti ili greške), njihovu analizu i procenu, kao i preduzimanje mera za ublažavanje od faze dizajna do upotrebe nakon plasiranja artificialintelligenceact.eu. Ovaj pristup je sličan konceptu „bezbednosti kroz dizajn” – predviđaju se mogući načini na koje AI može da zakaže ili izazove štetu i ti problemi se adresiraju unapred.
  • Obezbediti visok kvalitet podataka i upravljanje podacima: Skupovi podataka za treniranje, validaciju i testiranje treba da budu relevantni, reprezentativni i bez grešaka ili pristrasnosti „koliko god je moguće” artificialintelligenceact.eu. Akt insistira na izbegavanju diskriminatornih ishoda, pa provajderi moraju da provere svoje podatke kako bi otkrili neuravnoteženost ili greške koje bi mogle dovesti do nepravednog tretiranja ljudi od strane AI sistema digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Na primer, kod razvoja AI za regrutaciju, skupovi podataka za treniranje treba da se revidiraju kako bi se izbeglo preuzimanje prethodnih rodnih ili rasnih pristrasnosti pri zapošljavanju. Upravljanje podacima podrazumeva i praćenje porekla i obrade podataka kako bi performanse AI sistema mogle biti razumljive i proverljive.
  • Tehnička dokumentacija i vođenje evidencije: Programeri moraju pripremiti opširnu tehničku dokumentaciju koja dokazuje usklađenost AI sistema artificialintelligenceact.eu. Dokumentacija treba da opisuje namenu sistema, dizajn, arhitekturu, algoritme, podatke za treniranje i mere za kontrolu rizika artificialintelligenceact.eu. Mora biti dovoljno detaljna da regulatori mogu da procene kako sistem funkcioniše i da li ispunjava zahteve akta. Takođe, visokorizični AI sistemi moraju biti dizajnirani da automatski beleže svoj rad – tj. da zapisuju događaje ili odluke kako bi omogućili tragaње i analizu nakon plasmana artificialintelligenceact.eu digital-strategy.ec.europa.eu. Na primer, AI sistem za odluke o kreditima može beležiti ulazne podatke i osnovu za svaku odluku. Ove evidencije su ključne za detekciju grešaka ili pristrasnosti i neophodne u slučaju incidenta ili provere usklađenosti.
  • Ljudski nadzor i jasna uputstva: Provajderi moraju izgraditi sistem tako da omogućavaju efektivan ljudski nadzor od strane korisnika ili operatera artificialintelligenceact.eu. To može značiti uključivanje funkcija ili alata za ljudsku intervenciju ili praćenje rada AI. Provajder mora dostaviti i detaljna uputstva za upotrebu korisniku artificialintelligenceact.eu. Uputstva bi trebalo da objasne kako pravilno instalirati i koristiti AI, koja su njegova ograničenja, očekivani nivo tačnosti, neophodne mere ljudskog nadzora i rizike zloupotrebe artificialintelligenceact.eu. Ideja je da kompanija koja koristi AI (korisnik, deployer) može da ga nadgleda i kontroliše samo ako ima odgovarajuća znanja i mogućnosti koje joj pruži programer. Na primer, proizvođač AI alata za medicinsku dijagnostiku mora objasniti bolnici kako da tumači rezultate i kada treba da ih dodatno proveri lekar.
  • Performanse, robusnost i sajber bezbednost: Visokorizični AI sistemi moraju dostići odgovarajući nivo tačnosti, robusnosti i sajber bezbednosti za svoju namenu artificialintelligenceact.eu. Provajderi treba da testiraju i podešavaju svoje modele kako bi minimizovali stopu grešaka i izbegli nepredvidivo ponašanje. Takođe, moraju postojati mere zaštite od manipulacije ili hakovanja (sajber bezbednost), jer kompromitovan AI može biti vrlo opasan (zamislite napadača koji menja AI sistem za upravljanje saobraćajem). U praksi, ovo može značiti testiranje AI sistema pri različitim uslovima i proveru da li podnosi promene ulaznih podataka bez ozbiljnih grešaka artificialintelligenceact.eu. Sva poznata ograničenja (na primer, ako AI smanjuje tačnost za određene demografske grupe ili scenarije) moraju biti dokumentovana i što je više moguće ublažena.
  • Sistem za upravljanje kvalitetom: Da bi sve navedeno ostvarili, provajderi moraju imati sistem za upravljanje kvalitetom artificialintelligenceact.eu. To je formalizovan organizacioni postupak za stalno praćenje usklađenosti – slično ISO standardima kvaliteta – i obuhvata sve, od standardnih operativnih procedura u razvoju do načina za rešavanje incidenata i ažuriranja. Ovim se institucionalizuje usklađenost kako bi bezbedan i zakonit AI bio stalna praksa, a ne jednokratni projekat za provajdera.

Pre nego što visokorizični AI sistem može biti plasiran na tržište EU, provajder mora proći proveru usklađenosti koja dokazuje ispunjavanje svih ovih zahteva. Mnogi visokorizični AI sistemi će podleći samoocenjivanju, gde sam provajder proverava usklađenost i izdaje EU deklaraciju o usklađenosti. Međutim, ako je AI deo nekih regulisanih proizvoda (poput medicinskih uređaja ili automobila), notifikovano telo (nezavisni treći-partner) može morati da potvrdi usklađenost AI sistema prema postojećim regulativama za proizvod cimplifi.com. U svakom slučaju, usklađeni AI sistemi će nositi CE oznaku, što pokazuje da ispunjavaju standarde EU, i biće upisani u EU bazu podataka visokorizičnih AI sistema cimplifi.com. Ova transparentna baza podataka omogućava regulatorima i javnosti da saznaju koji visokorizični AI sistemi su u upotrebi i ko je za njih odgovoran.

Obaveze za korisnike (deployere): Akt propisuje obaveze i za korisnike ili operatere koji u profesionalnom svojstvu koriste visokorizične AI sisteme. (To su kompanije ili organi vlasti koji koriste AI, a ne krajnji korisnici ili potrošači.) Ključne obaveze korisnika uključuju: poštovanje uputstava proizvođača za upotrebu, osiguranje propisanog ljudskog nadzora i praćenje performansi AI sistema u radu u realnim uslovima digital-strategy.ec.europa.eu. Ako korisnik primeti neočekivano ponašanje AI sistema ili bezbednosne probleme, mora preduzeti mere (uključujući potencijalnu obustavu korišćenja) i obavestiti provajdera i nadležne organe. Korisnici takođe moraju voditi evidenciju tokom rada AI sistema (da bi sačuvali njegove izlazne podatke i odluke, u skladu sa evidencijom koju vodi sam AI) i prijaviti ozbiljne incidente ili kvarove vlastima artificialintelligenceact.eu. Na primer, bolnica koja koristi AI alat za dijagnostiku mora prijaviti ako AI sistem dovede do pogrešne dijagnoze koja je prouzrokovala štetu pacijentu. Ove obaveze na strani korisnika obezbeđuju da nadzor traje i nakon plasiranja u upotrebu – AI sistem se ne „pušta s lanca”, već ostaje pod ljudskim nadzorom sa povratnim informacijama programeru i regulatorima.

Vredno je napomenuti da korisnici male veličine (npr. mala preduzeća) nisu izuzeti od ovih obaveza ako koriste visokorizični AI, ali je namera zakonodavca da dokumentacija i podrška provajdera omoguće izvodljivu usklađenost. Akt takođe pravi razliku između korisnika i pogođenih osoba – potonji (npr. potrošač kojeg AI odluka odbije) nemaju obaveze prema aktu, ali imaju prava, kao što je mogućnost podnošenja žalbi na problematične AI sisteme europarl.europa.eu.

Zahtevi transparentnosti (izvan visokog rizika): Osim sistema sa visokim rizikom, Zakon o veštačkoj inteligenciji zahteva posebne mere transparentnosti za određene AI sisteme bez obzira na nivo rizika. Ovo smo pomenuli pod “ograničeni rizik.” Konkretno, svaki AI sistem koji komunicira sa ljudima, generiše sadržaj ili nadgleda ljude mora da pruži obaveštenje:

  • AI sistemi koji komuniciraju sa ljudima (kao što su čet-botovi ili AI asistenti) moraju informisati korisnika da su AI. Na primer, online čet-bot za korisničku podršku treba jasno da se identifikuje kao automatizovan, kako korisnici ne bi pomislili da razgovaraju sa pravom osobom digital-strategy.ec.europa.eu.
  • AI koji generiše ili menja sadržaj (slike, video, zvuk ili tekst) na način koji može da zavara mora da obezbedi da je sadržaj označen kao AI-generisan digital-strategy.ec.europa.eu. Deepfake je tipičan primer: ako AI kreira realističnu sliku ili video osobe koja zapravo nije učinila ili izgovorila ono što je prikazano, taj AI-generisan medij mora biti jasno označen (osim ako se koristi u kontekstu satire, umetnosti ili bezbednosnog istraživanja, gde može biti izuzet). Cilj je borba protiv obmane i dezinformacija kroz jasno obeležavanje porekla medija.
  • AI sistemi koji se koriste za biometrijski nadzor (poput kamera sa prepoznavanjem lica) ili prepoznavanje emocija moraju upozoriti ljude na svoje funkcionisanje, gde god je to izvodljivo. (Kao što je napomenuto, mnoge od tih primena su potpuno zabranjene ili spadaju pod visok rizik sa strogim uslovima).
  • Generativni AI modeli (često nazvani osnovni modeli, kao što su veliki jezički modeli poput ChatGPT-a) imaju posebno prilagođene zahteve transparentnosti i informisanja. Čak i ako generativni model nije klasifikovan kao visokorizičan, pružalac mora da otkrije određene informacije: na primer, AI-generisan sadržaj treba da bude označen, a pružalac treba da objavi rezime podataka zaštićenih autorskim pravom koji su korišćeni za obuku modela europarl.europa.eu. Ovo ima za cilj da informiše korisnike i autore o potencijalnim pravima intelektualne svojine u skupu za obuku i da obezbedi usklađenost sa zakonima EU o autorskim pravima europarl.europa.eu. Takođe se očekuje da pružaoci generativnih modela spreče kreiranje nezakonitog sadržaja, na primer, izgradnjom filtera ili zaštitnih mehanizama u modelu europarl.europa.eu.

Ukratko, transparentnost je tema koja prolazi kroz ceo tekst Zakona o veštačkoj inteligenciji – bilo da je u pitanju visokorizični sistem (sa detaljnom dokumentacijom i informacijama za korisnike) ili čet-bot niskog rizika (uz jednostavno obaveštenje “Ja sam AI”), ideja je da se rasvetle “crne kutije” AI sistema. Ovo ne samo da osnažuje korisnike i sve na koje AI utiče, već omogućava i odgovornost: ako nešto pođe po zlu, postoji trag šta je AI zapravo trebalo da radi i kako je razvijen.

AI opšte namene (osnovni modeli): Značajna novina u konačnoj verziji Zakona je set pravila za AI modele opšte namene (GPAI modeli) – to su široki AI modeli trenirani na velikim skupovima podataka (često putem samonadzora), koji se mogu prilagoditi za širok spektar zadataka artificialintelligenceact.eu. Primeri uključuju velike jezičke modele, generatore slika ili druge “osnovne” modele koje tehnološke kompanije izgrađuju i zatim omogućavaju drugima da ih koriste ili dodatno prilagođavaju. Zakon prepoznaje da, iako ovi modeli nisu vezani za jednu visokorizičnu upotrebu, kasnije mogu biti integrisani u visokorizične sisteme ili imati sistemski uticaj. Zbog toga se postavljaju obaveze za pružaoce GPAI modela, čak i ako ti modeli još nisu u potrošačkim proizvodima.

Svi pružaoci GPAI modela moraju objaviti tehničku dokumentaciju o svom modelu (koja opisuje proces razvoja i mogućnosti) i pružiti uputstva svakom sledećem razvojnom timu kako da model koristi na usklađen način artificialintelligenceact.eu artificialintelligenceact.eu. Takođe, moraju poštovati autorska prava – obezbeđujući da podaci za obuku budu u skladu sa zakonima EU o autorskim pravima – i objaviti rezime podataka koji su korišćeni za obuku (barem pregled izvora) artificialintelligenceact.eu. Ovi zahtevi donose veću transparentnost trenutno netransparentnom svetu velikih AI modela.

Ključno, Zakon pravi razliku između vlasničkih modela i onih izdatih pod open source licencama. Pružaoci open source GPAI modela (gde su težine i kod modela slobodno dostupni) imaju blaže obaveze: oni treba samo da ispune korake vezane za autorska prava i transparentnost podataka za obuku, a ne i kompletnu tehničku dokumentaciju ili uputstva – osim ako njihov model predstavlja „sistemski rizik“ artificialintelligenceact.eu. Ovo je uvedeno kako bi se sprečilo gušenje otvorenih inovacija i istraživanja. Međutim, ako je otvoreni model izuzetno sposoban i može imati velik uticaj, neće moći da izbegne nadzor samo zato što je open source.

Zakon definiše “GPAI modele sa sistemskim rizikom” kao one veoma napredne modele koji mogu imati dalekosežan uticaj na društvo. Jedan od kriterijuma je ako je za obuku modela bilo potrebno više od 10^25 računarskih operacija (FLOPs) – što je proxy za identifikaciju najmoćnijih i najresursnije modela artificialintelligenceact.eu. Pružaoci takvih modela sa visokim uticajem moraju da sprovode dodatne evaluacije i testiranja (uključujući “adversarial testing” u cilju pronalaženja ranjivosti) i aktivno ublažavaju sve identifikovane sistemske rizike artificialintelligenceact.eu. Takođe su dužni da prijave ozbiljne incidente povezane sa svojim modelom Evropskoj kancelariji za AI i nacionalnim organima, kao i da obezbede snažnu sajber bezbednost za model i njegovu infrastrukturu artificialintelligenceact.eu. Ove mere unapred uzimaju u obzir brige vezane za napredni AI (poput GPT-4 i dalje) koji bi mogao izazvati široko rasprostranjenu štetu (npr. omogućiti nove vrste dezinformacija, sajber napada itd.). Zakon zapravo poručuje: ako razvijate najsavremeniju opštu veštačku inteligenciju, morate biti posebno oprezni i raditi sa regulatorima kako biste je držali pod kontrolom europarl.europa.eu artificialintelligenceact.eu.

Radi podsticanja saradnje, Zakon predviđa da pridržavanje Kodeksa ponašanja ili budućih usaglašenih standarda može biti način da pružaoci GPAI modela ispune svoje obaveze artificialintelligenceact.eu. EU zapravo olakšava nastanak Kodeksa prakse za AI koji će industrija privremeno poštovati digital-strategy.ec.europa.eu. AI kancelarija vodi ovaj proces izrade praktičnih smernica kako bi se programeri osnovnih modela lakše uskladili digital-strategy.ec.europa.eu. Ovaj kodeks je dobrovoljan ali može služiti kao “sigurna luka” – ako ga kompanije poštuju, regulator može pretpostaviti da su u skladu sa zakonom.

U celini, obaveze iz Zakona o veštačkoj inteligenciji pokrivaju ceo životni ciklus AI: od dizajna (procena rizika, provere podataka) preko razvoja (dokumentacija, testiranje), implementacije (transparentnost ka korisnicima, nadzor) do praćenja nakon puštanja u rad (monitoring, izveštavanje o incidentima). Usklađenost će zahtevati multidisciplinarni pristup – AI programeri će osim data naučnika i inženjera morati da uključe i pravnike, menadžere rizika i etičare kako bi se ispunili svi zahtevi. Sledeće razmatramo kako će se usklađenost sprovoditi i šta se dešava ako kompanije ne ispune obaveze.

Mehanizmi kontrole, tela za nadzor i kazne

Kako bi nadgledala ovu sveobuhvatnu regulativu, EU AI Act uspostavlja višeslojnu strukturu upravljanja i sprovođenja. To uključuje nacionalne organe u svakoj zemlji članici, novu centralnu Evropsku kancelariju za AI i koordinaciju putem AI odbora. Pristup sprovođenju je donekle modelovan po iskustvu EU sa regulativama za bezbednost proizvoda i zaštitu podataka (kao što je GDPR, sa kombinacijom nacionalnih regulatora i evropskog odbora).

Nacionalna nadležna tela: Svaka država članica EU mora da imenuje jedno ili više nacionalnih tela odgovornih za nadzor aktivnosti veštačke inteligencije (često nazvana tela za nadzor tržišta za AI) orrick.com. Ova tela će se baviti svakodnevnim istragama u vezi sa usklađenošću – na primer, proveravati da li visokorizični AI proizvod nekog proizvođača na tržištu ispunjava zahteve, ili istraživati žalbe građana. Ona imaju ovlašćenja slična onima iz postojeće regulative o bezbednosti proizvoda (Regulativa (EU) 2019/1020): mogu zahtevati informacije od proizvođača, sprovoditi inspekcije i čak narediti povlačenje AI sistema koji nisu u skladu sa pravilima sa tržišta orrick.com. Oni takođe prate tržište u potrazi za AI sistemima koji pokušavaju da izbegnu pravila ili predstavljaju nepredviđene rizike. Ukoliko se utvrdi da je AI sistem neusklađen ili opasan, nacionalna tela mogu izreći novčane kazne ili zahtevati povlačenje sistema sa tržišta. Svaka država će verovatno dodeliti ovu ulogu postojećem regulatoru ili će osnovati novi organ (neki predlažu da organi za zaštitu podataka preuzmu nadzor nad AI, ili da sektorski regulatori, poput agencija za medicinske uređaje, regulišu medicinski AI i sl., radi korišćenja postojećih stručnjaka). Do avgusta 2025., države članice moraju imenovati i operacionalizovati svoje AI regulatore artificialintelligenceact.eu, a do 2026. svaka država mora da uspostavi barem jedan Regulatorni sandbox za AI (kontrolisana sredina u kojoj se testiraju inovativna AI rešenja pod nadzorom) artificialintelligenceact.eu. Evropska kancelarija za AI: Na nivou EU osnovano je novo telo poznato kao Kancelarija za AI u okviru Evropske komisije (tačnije, DG CNECT) artificialintelligenceact.eu. Kancelarija za AI je centralni regulator fokusiran na AI opšte namene i prekogranična pitanja. Po Zakonu, kancelarija za AI ima isključiva ovlašćenja za sprovođenje pravila za pružaoce modela AI opšte namene (GPAI) orrick.com. To znači da ako OpenAI, Google ili bilo koja firma pruža veliki AI model koji se koristi širom Evrope, kancelarija za AI će biti glavni organ za sprovođenje ovih pravila i obaveza (tehnička dokumentacija, upravljanje rizicima itd.). Kancelarija za AI može zatražiti informacije i dokumentaciju direktno od pružalaca osnovnih modela i zahtevati korektivne mere ukoliko nisu u skladu sa propisima orrick.com. Takođe će nadgledati slučajeve kada je ista kompanija i davalac osnovnog modela i korisnik visokorizičnog sistema zasnovanog na tom modelu – kako bi se izbegle “rupe” između nacionalnog i EU nadzora orrick.com. Pored sprovođenja, kancelarija za AI ima široku ulogu u praćenju trendova i sistemskih rizika u AI. Zadatak joj je analiza novih visokorizičnih ili nepredviđenih AI pitanja (posebno u vezi sa GPAI) i može vršiti procenu moćnih modela artificialintelligenceact.eu. U kancelariji će raditi eksperti (Komisija već zapošljava AI stručnjake artificialintelligenceact.eu) i biće povezana sa nezavisnim Naučnim panelom AI eksperata koji će savetovati o tehničkim pitanjima artificialintelligenceact.eu. Posebno, kancelarija za AI će razvijati dobrovoljne kodekse ponašanja i uputstva za industriju – kao resurs za pomoć AI razvojnim timovima da ispune usklađenost (posebno korisno za startape/SME) artificialintelligenceact.eu. Ona će koordinisati sa državama članicama radi dosledne primene pravila i čak pomoći u zajedničkim istragama kada AI pitanje prevazilazi granice više zemalja artificialintelligenceact.eu artificialintelligenceact.eu. Suštinski, kancelarija za AI je pokušaj EU da stvori centralizovanog AI regulatora koji dopunjuje nacionalna tela – slično kao što Evropski odbor za zaštitu podataka funkcioniše za GDPR, ali sa još direktnijim ovlašćenjima u pojedinim oblastima. AI Board: Propis uvodi novo Evropsko veće za veštačku inteligenciju, koje čine predstavnici svih nacionalnih AI organa (uz Evropskog nadzornika za zaštitu podataka i Kancelariju za AI u svojstvu posmatrača) artificialintelligenceact.eu. Glavni zadatak Veća je obezbeđivanje dosledne primene širom Evrope – deliće najbolju praksu, možda davati mišljenja ili preporuke i koordinirati strategije za prekogranično sprovođenje artificialintelligenceact.eu. Kancelarija za AI ima ulogu sekretarijata ovog Veća, organizuje sastanke i pomaže u izradi dokumenata artificialintelligenceact.eu. Veće može olakšati npr. razvoj standarda ili diskutovati o potrebnim izmenama Priloga Zakona tokom vremena. Ovo je međuvladin forum koji omogućava svima da budu “na istoj strani”, sprečavajući različita tumačenja i fragmentaciju jedinstvenog tržišta AI u EU. Kazne za nepoštovanje propisa: Zakon o AI uvodi visoke kazne za prekršaje, prateći odvraćajući pristup viđen kod GDPR-a. Postoje tri nivoa administrativnih sankcija:
  • Za najteže prekršaje – tj. primenu zabranjenih AI praksi (neprihvatljiva, zabranjena upotreba AI) – kazna može ići do 35 miliona € ili 7% globalnog godišnjeg prometa, šta god je veće orrick.com. Ovo je izuzetno visok maksimum (viši od maksimalnih 4% po GDPR-u). Time EU pokazuje koliko ozbiljno shvata npr. tajno bodovanje građana ili nezakoniti biometrijski nadzor – to su kodifikovani kao najteži korporativni prekršaji.
  • Za ostala kršenja Zakona (npr. neispunjavanje obaveza za visokorizični AI, neupisivanje sistema u registar, neprimenjivanje mera transparentnosti), maksimalna kazna je 15 miliona € ili 3% globalnog prometa orrick.com. Ovo pokriva većinu propusta u usklađenosti: npr. firma ne sprovede procenu usklađenosti ili proizvođač prikrije podatke od regulatora – to spada ovde.
  • Za davanje netačnih, obmanjujućih ili nepotpunih informacija regulatorima (na primer tokom istrage ili u odgovoru na zahtev za usklađivanje), kazna može biti do 7,5 miliona € ili 1% prometa orrick.com. Ovaj blaži nivo je za opstrukciju ili nesaradnju sa organima.
Važno je što zakon nalaže da MPS (mala i srednja preduzeća) budu sankcionisana na donjoj granici ovih raspona, dok velike firme mogu dobiti kazne na gornjoj granici orrick.com. Drugim rečima, cifre od 35 miliona € ili 7%, odnosno 15 miliona € ili 3% su maksimumi; regulatori imaju diskreciju i treba da uzmu u obzir veličinu i finansijsku moć prekršioca. MPS bi mogao dobiti novčanu kaznu u milionima evra (ne procenat prometa), kako bi se izbegle nesrazmerne posledice, dok bi velike tehnološke firme mogle biti kažnjene procentualno da bi kazna imala pravi efekat orrick.com. Ove odredbe o kaznama postaju primenljive od 2. avgusta 2025. za većinu pravila orrick.com. (Pošto tog datuma nastupaju na snagu poglavlje o upravljanju i članovi o kaznama). Međutim, za nove obaveze vezane za AI modele opšte namene, kazne nastupaju godinu dana kasnije, 2. avgusta 2026, što se poklapa sa ulaskom u obaveznu primenu zahteva za osnovne modele orrick.com. Ova odložena primena omogućava pružiocima osnovnih modela da se pripreme.

Što se tiče procedure i zaštitnih mera: kompanije će imati prava kao što su pravo da budu saslušane pre donošenja sankcije, a poverljivost osetljivih informacija dostavljenih regulatorima je obavezna orrick.com. Zakon takođe napominje da, za razliku od nekih drugih EU zakona, Komisija (preko AI Kancelarije) nema široka ovlašćenja da sprovodi jutarnje racije ili da samostalno primorava na svedočenje – osim ako privremeno ne preuzme ulogu nacionalnog organa orrick.com. Ovo odražava određena ograničenja, verovatno sa ciljem da se ublaže zabrinutosti oko prekoračenja ovlašćenja.

Uloga AI Kancelarije u sprovođenju: Evropska komisija, putem AI Kancelarije, može sama da pokrene postupke za sprovođenje propisa u određenim slučajevima, posebno kada su u pitanju sistemi opšte namene. Ovo je nov mehanizam sprovođenja – istorijski gledano, Komisija nije direktno primenjivala pravila za proizvode (već je bila zadužena za nadgledanje i koordinaciju), osim u domenu konkurencije. Sa AI Zakonom, Komisija dobija mnogo veću i praktičniju ulogu. AI Kancelarija može da istražuje provajdera osnovnog modela, zahteva širok spektar dokumenata (slično kao kod antimonopolskih istraga) orrick.com, pa čak i da sprovodi simulirane sajber napade ili provere na AI modelu radi testiranja njegove bezbednosti artificialintelligenceact.eu. Kompanije pod takvom istragom mogu doživeti nešto slično postupku u domenu konkurencije, što, prema analitičarima iz Orricka, može biti opterećujuće jer uključuje zahteve za hiljade dokumenata, uključujući i interne nacrte orrick.com. Iskustvo Komisije u velikim istragama sugeriše da će u značajnim AI slučajevima angažovati ogromne resurse. Iako ovo povisuje ulog za usklađenost AI programera, jasno pokazuje da EU ozbiljno pristupa centralizovanom sprovođenju pravila za osnovne AI modele koji prelaze državne granice.

Nadzor nad visokorizičnim AI sistemima: Kada su u pitanju tradicionalni visokorizični AI sistemi (kao što je bankarski sistem za bodovanje kreditne sposobnosti ili gradski sistem za korišćenje AI u policiji), glavni nosioci sprovođenja ostaju nacionalni organi. AI Kancelarija i AI Odbor će im pomagati, posebno ako se pojave problemi koji pogađaju više zemalja. Zakon omogućava zajedničke istrage, gde nekoliko nacionalnih regulatora sarađuje (uz podršku AI Kancelarije) ako rizici nekog AI sistema prelaze granice artificialintelligenceact.eu. Ovo sprečava, recimo, da sistem koji se koristi širom EU ostane pod radarom jedne zemlje, dok su druge neobaveštene.

Konačno, postoji i ugrađen postupak žalbe i revizije: kompanije mogu da se žale na odluke o sprovođenju zakona putem nacionalnih sudova (ili na kraju Sudu EU ako je odluka Komisije), a sam Zakon će biti predmet periodičnih revizija. Do 2028. godine Komisija mora da proceni koliko dobro funkcionišu AI Kancelarija i novi sistem artificialintelligenceact.eu, a svake druge ili treće godine preispitivaće da li kategorije rizika ili liste (Aneks III, itd.) treba ažurirati artificialintelligenceact.eu. Ovakvo prilagodljivo upravljanje je ključno zbog brzog razvoja AI tehnologije – EU namerava da pravila usavršava i menja prema potrebi kroz vreme.

Ukratko, EU AI Zakon će sprovoditi mreža regulatornih tela, pri čemu je Evropska AI Kancelarija centralni čvor za smernice, doslednost i direktan nadzor modela od osnovnog značaja. Kazne su visoke – na papiru, jedne od najstrožih u oblasti tehnološke regulative – što jasno pokazuje da nepoštovanje nije opcija. Organizacije će želeti da ugrade usklađenost u svoje AI projekte od samog početka umesto da rizikuju ove kazne ili prinudno gašenje AI sistema.

Sektorski uticaji i primene

Implikacije AI Zakona razlikuju se po industrijama, budući da je zakon ciljano usmeren na određene sektore visokog rizika. Ovde prikazujemo kako su ključni sektori – zdravstvo, finansije, policija i obrazovanje – pogođeni:

  • Zdravstvo i medicinski uređaji: AI ima veliki potencijal u medicini (od postavljanja dijagnoza do hirurgija uz asistenciju robota), ali prema Zakonu ove primene često su klasifikovane kao visokorizične. Zapravo, svaki AI deo regulisanog medicinskog uređaja smatra se visokorizičnim po defaultu emergobyul.com. Na primer, AI alat za analizu radioloških snimaka ili algoritam za predlaganje plana lečenja mora ispuniti zahteve Zakona uz postojeće zdravstvene regulative. Dobavljači takvih AI sistema moraće da prođu rigorozne procedure usklađivanja (najverovatnije uz CE oznaku za medicinske uređaje). Neophodno je obezbediti klinički kvalitet i bezbednost, što je u skladu sa zahtevima Zakona za tačnost i minimizaciju rizika. Pacijenti i medicinsko osoblje bi trebalo da profitiraju od ovih zaštita – AI biće pouzdaniji i jasnije će biti prikazana njegova ograničenja. Međutim, programeri medicinskog AI suočiće se sa većim troškovima istraživanja i razvoja i administrativnim opterećenjem kako bi dokazali usklađenost. Vremenom, moguće je sporije uvođenje AI inovacija u evropsko zdravstvo dok ne prođu regulatornu proveru goodwinlaw.com. Sa druge strane, Zakon podstiče i eksperimentisanje putem regulatornih peskovnika: bolnice, startupovi i regulatori mogu u kontrolisanim uslovima zajednički testirati AI sisteme (poput AI dijagnostičkog asistenta) kako bi prikupili dokaze o sigurnosti i efikasnosti pre šire implementacije. Do 2026. svaka članica mora imati bar jedan AI regulatorni peskovnik aktivan u oblastima uključujući zdravstvo artificialintelligenceact.eu. Zaključno, medicinski AI u Evropi postaje sigurniji i standardizovaniji, ali proizvođači moraju pažljivo navigirati u procesu usklađivanja kako bi izbegli odlaganja u plasmanu inovacija na tržište.
  • Finansije i osiguranje: Zakon jasno svrstava mnoge AI sisteme za finansijske usluge u visokorizičnu kategoriju. Pogotovo, AI sistemi za procenu kreditne sposobnosti – npr. algoritmi koji odlučuju da li ćete dobiti kredit ili koju kamatnu stopu – uvršteni su u visokorizične jer mogu uticati na pristup osnovnim uslugama digital-strategy.ec.europa.eu. To znači da banke i fintech kompanije koje koriste AI za odobravanje zajmova, kreditnu ocenu ili procenu osiguranja moraju osigurati da su ti sistemi nediskriminatorni, objašnjivi i da podležu reviziji. Moraće da vode dokumentaciju o obuci AI-a (da bi dokazali, na primer, da sistem ne kažnjava nenamerno određene etničke grupe ili kvartove, što je bio poznat problem kod nekih modela za kreditiranje). Korisnici će imati i veću transparentnost: iako Zakon ne daje direktno pojedincima pravo na objašnjenje kao GDPR, zahtev za jasnim informacijama korisnicima znači da bi davaoci kredita trebalo da obaveste podnosioce zahteva kada AI učestvuje u odluci i ukratko objasne kako sistem funkcioniše digital-strategy.ec.europa.eu. Još jedan slučaj iz finansija je AI za detekciju prevara i sprečavanje pranja novca, što može potpasti pod visokorizične (ako utiče na osnovna prava) ili ograničene obaveze transparentnosti. Finansijske firme će morati imati jake mehanizme upravljanja riskom za AI – kao proširene okvire za upravljanje modelima prema kriterijumima AI Zakona. Mogući su inicijalni troškovi usklađenosti, poput angažovanja stručnjaka za otkrivanje pristrasnosti ili dodatne dokumentacije, ali rezultat bi trebalo da bude pravedniji i pouzdaniji AI u finansijama. Klijenti mogu očekivati smanjenje pristrasnosti u odlukama o kreditima i sigurnost da regulator nadzire AI koji donosi takve odluke. Osiguravači koji koriste AI u procenama (npr. modeli određivanja cene zdravstvenog ili životnog osiguranja) takođe su visokorizični artificialintelligenceact.eu i moraju sprečiti nepoštenu diskriminaciju (npr. AI ne sme neosnovano povećavati premije na osnovu zaštićenih zdravstvenih karakteristika). Sve u svemu, Zakon gura finansijski AI ka većoj transparentnosti i odgovornosti, što bi vremenom trebalo da poveća poverenje korisnika u AI proizvode.
  • Policija i javna bezbednost: Ovo je oblast gde Zakon pristupa izuzetno obazrivo zbog visokog rizika za građanske slobode. Nekoliko AI aplikacija za policiju je potpuno zabranjeno i smatraju se neprihvatljivim: na primer, AI za „društveno bodovanje“ ili prediktivno policijsko profilisanje kriminala strogo je zabranjeno artificialintelligenceact.eu artificialintelligenceact.eu. Isto tako, upotreba prepoznavanja lica u realnom vremenu na javnim mestima od strane policije dozvoljena je samo u izuzetnim slučajevima (i tada pod strogom kontrolom) europarl.europa.eu. Dakle, evropska policija neće moći masovno da uvodi mreže kamera za prepoznavanje lica uživo – što je praksa u nekim delovima sveta – osim u strogo definisanim slučajevima velikih opasnosti i uz sudsko odobrenje. Ostali alati za policiju spadaju pod visokorizične i mogu se koristiti, ali uz nadzor. Na primer, AI koji analizira prošle podatke o kriminalu za raspodelu policijskih snaga, ili sistem za procenu relevantnosti dokaza ili profila osumnjičenih, smatra se visokorizičnim digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policija ili granične službe koje koriste takve sisteme moraće da sprovode procene uticaja na osnovna prava i da konačne odluke uvek donose ljudi, ne AI. Postojaće i EU baza podataka za sve visokorizične policijske AI alate, što povećava transparentnost i omogućava javni uvid (donekle, jer su neki podaci osetljivi). Agencije za sprovođenje zakona mogu doživeti opterećenje birokratijom (popunjavanje dokumentacije, pribavljanje odobrenja od imenovanih tela za određene alate itd.), što bi moglo usporiti primenu AI. Ipak, cilj ovih mera je da spreče zloupotrebe – na primer, da se izbegne situacija u kojoj algoritam određuje krivicu ili koga treba zaustaviti na granici bez mogućnosti žalbe. Još jedan konkretan efekat je i zabrana emocionalne analitike u radu policije ili na radnim mestima: Zakon zabranjuje AI koji tvrdi da otkriva emocije u policijskim ispitivanjima, intervjuima za posao, školskim ispitima itd. zbog njegove nametljivosti i nepouzdanosti digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Dakle, policija u EU će se verovatno fokusirati na AI za analizu podataka i rutinske zadatke pod ljudskim nadzorom, i odustati od distopijskih AI scenarija kojima druge regije možda teže. U suštini, Zakon pokušava da nađe balans: dozvoliti AI da pomaže u rešavanju zločina i unapređenju bezbednosti, ali ne po cenu osnovnih prava i sloboda.
  • Obrazovanje i zapošljavanje: AI sistemi korišćeni u obrazovanju, poput softvera koji ocenjuje ispite ili preporučuje upise, smatraju se visokorizičnim jer značajno oblikuju budućnost učenika digital-strategy.ec.europa.eu. Škole ili edtech firme koje koriste AI za ocenjivanje eseja ili detekciju varanja moraće da obezbede tačnost i nepristrasnost alata. Pogrešan AI koji pogrešno ocenjuje određene grupe učenika ili se pokvari tokom ispita može imati dugoročne posledice, pa je zato klasifikovan kao visokorizičan. U praksi, ministarstva prosvete i univerziteti moraće pažljivije da proveravaju AI dobavljače i vode dokumentaciju za svaki algoritam koji utiče na upis ili ocenjivanje. Studenti moraju biti informisani kada se koristi AI (transparentnost) i imati mogućnost žalbe – što podržavaju zahtevi Zakona za transparentnošću i ljudskim nadzorom. S druge strane, u sferi zapošljavanja, AI koji se koristi za zapošljavanje ili upravljanje kadrovima (prepoznavanje i rangiranje CV-ova, ocenjivanje kandidata, praćenje radnog učinka) takođe je visokorizičan digital-strategy.ec.europa.eu. Kompanije koje koriste AI alate za selekciju moraju paziti da su ti alati dizajnirani i testirani za pravičnost (da, na primer, ne prenose rodne predrasude na proces zapošljavanja). Zakon može dovesti do promene u industriji alata za regrutaciju: neki automatizovani sistemi moraće značajno da se unaprede ili dokumentuju da bi legalno funkcionisali na tržištu EU, a deo kompanija može se vratiti više ljudski kontrolisanom procesu selekcije ako AI ne ispunjava standard. Najmanje što kandidati mogu očekivati je poruka „AI može biti korišćen u obradi vaše prijave” i mogućnost traženja objašnjenja odluka, što je deo etosa transparentnosti. Pozitivna strana ovoga je veća pravičnost i odgovornost u zapošljavanju – AI neće biti misteriozni čuvar već alat pod nadzorom. Izazov za HR je da integriše ove provere u rad bez usporavanja i preterane komplikacije. I ovde regulatorni peskovnici mogu pomoći: recimo, HR startup može testirati svoj AI alat za ocenu kandidata u peskovniku uz savet regulatora pre nego što ga šire plasira na tržište.

U ostalim sektorima koji nisu eksplicitno nabrojani u Zakonu, uticaj zavisi od konkretne primene. Na primer, kritična infrastruktura (energetske mreže, upravljanje saobraćajem) koja koristi AI radi optimizacije biće visokorizična ako bi greške ugrozile bezbednost artificialintelligenceact.eu. Tako će i komunalna preduzeća i operatori prevoza morati da sertifikuju AI sisteme za upravljanje. Marketing i društvene mreže (poput AI sistema za ciljanje reklama ili preporuke sadržaja) uglavnom potpadaju pod minimalni ili ograničeni rizik – AI Zakon ih ne reguliše strogo, mada mogu biti predmet drugih propisa (DSA, itd.).

Jedan sektor koji vredi istaći jeste sektor proizvoda za potrošače i robotike – ako se veštačka inteligencija integriše u proizvode za potrošače (igračke, uređaje, vozila), tada na scenu stupaju zakoni o bezbednosti proizvoda. Na primer, igračka pokretana veštačkom inteligencijom koja komunicira sa decom može predstavljati visok rizik, posebno ako može opasno uticati na ponašanje dece europarl.europa.eu. Akt posebno zabranjuje igračke koje koriste glasovnu veštačku inteligenciju za podsticanje štetnog ponašanja kod dece europarl.europa.eu. Tako da kompanije koje se bave igračkama i igrama, a koriste veštačku inteligenciju, moraju biti veoma pažljive u pogledu sadržaja i funkcionalnosti. Sve u svemu, industrije koje se bave životima ljudi, njihovim mogućnostima ili pravima suočavaju se sa najznačajnijim novim pravilima. U tim sektorima će verovatno doći do kulturološke promene ka „etici i usklađenosti veštačke inteligencije” – gde će uloge poput službenika za usklađenost sa veštačkom inteligencijom ili revizora za etička pitanja postati uobičajene. Iako može doći do početnog usporavanja dok se sistemi ne revidiraju i poboljšaju, na duži rok se može javiti veće poverenje javnosti u veštačku inteligenciju u ovim oblastima. Na primer, ako roditelji veruju da je veštačka inteligencija koja ocenjuje njihovo dete pod pažljivim nadzorom kada je reč o pravičnosti, biće otvoreniji za korišćenje veštačke inteligencije u obrazovanju.

Uticaj na poslovanje: mala i srednja preduzeća, startapovi i globalne kompanije

EU Akt o veštačkoj inteligenciji uticaće na organizacije svih veličina, od agilnih startapova do multinacionalnih tehnoloških giganata, posebno na one koji nude proizvode ili usluge veštačke inteligencije u Evropi. Troškovi i obaveze usklađivanja neće biti zanemarljivi, ali Akt sadrži mere za pomoć ili prilagođavanje manjim preduzećima, a njegov eksteritorijalni domet znači da čak i globalne kompanije izvan EU moraju da obrate pažnju. Mala i srednja preduzeća (MSP): MSP i startapovi su često glavni inovatori u oblasti veštačke inteligencije – procenjuje se da 75% inovacija u ovoj oblasti dolazi upravo iz startapova seniorexecutive.com. EU je vodila računa da ovim akterima ne onemogući rad kroz prevelike zahteve, pa Akt sadrži i odredbe prilagođene MSP-ovima. Kao što je pomenuto, kazne za prekršaje su razmerno niže za MSP, izražene u apsolutnim iznosima orrick.com, kako bi se sprečila pogubna kazna za malo preduzeće. Dalje, Akt propisuje da regulatorni sandboksovi moraju biti dostupni besplatno i sa prioritetnim pristupom za MSP thebarristergroup.co.uk. Ovi sandboksovi (operativni do 2026. u svakoj državi članici) omogućiće startapovima da testiraju svoje sisteme veštačke inteligencije pod nadzorom i dobiju povratne informacije o usklađenosti, bez bojazni od kazni u fazi testiranja. To je prilika da unaprede svoj proizvod kroz saradnju sa regulatorima – potencijalno pretvarajući usklađenost iz prepreke u zajednički proces dizajna. Dodatno, Evropska komisija je pokrenula „AI Pakt” i druge inicijative za podršku zajedno sa Aktom digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI Pakt je dobrovoljni program kojim se kompanije pozivaju da se obavežu na ranu usklađenost i podele najbolju praksu, sa naglaskom na pomoć onima koji nisu tehnološki giganti da se bolje pripreme. Akt nalaže i AI kancelariji da pruži vodiče, šablone i resurse za MSP artificialintelligenceact.eu. Verovatno ćemo videti uzorke planova za upravljanje rizicima ili čekliste dokumentacije koje može koristiti startap od 10 ljudi umesto da mora da angažuje čitav pravni tim. I pored ovih podsticaja, mnogi startapovi i dalje se brinu zbog tereta usklađivanja. Zahtevi (kao što je ranije opisano), poput sistema upravljanja kvalitetom ili provere usklađenosti, mogu biti zastrašujući za malu firmu sa ograničenim brojem zaposlenih. Postoji zabrinutost da bi inovacije mogle da se uspore ili izmeste geografski: ukoliko je previše zahtevno plasirati AI proizvod u Evropi, startap može prvo izabrati lansiranje u drugoj zemlji (npr. SAD), ili investitori mogu favorizovati regione sa blažim pravilima seniorexecutive.com seniorexecutive.com. Kako je jedan tehnološki direktor rekao, jasna pravila ulivaju poverenje, ali previše restriktivna pravila „mogla bi primorati sjajna i vredna istraživanja da se premeste drugde.” seniorexecutive.com. Neki osnivači startapova smatraju da je Akt preširok i opterećujući, te se plaše da će kompanije u ranoj fazi razvoja imati problem sa troškovima usklađivanja i odlučiti da premeste poslovanje van EU seniorexecutive.com. Kako bi se ovo ublažilo, kreatori politika EU najavljuju da će standardi i procedure usklađivanja biti što jednostavniji. Na primer, možda će postojati standardizovani moduli za proveru usklađenosti koje mali provajder može slediti, ili usluge sertifikacije koje objedine troškove za više MSP. Čak se razmatra i ideja o grantovima za usklađivanje ili subvencijama – sredstva kojima bi se pomoglo startapima da pokriju troškove ispunjavanja novih pravila seniorexecutive.com. Ako takvi podsticaji zažive (možda na nivou EU ili država članica), olakšaće teret poslovanja. U svakom slučaju, MSP bi trebalo da počnu tako što će mapirati svoje AI sisteme u odnosu na kategorije rizika i fokusirati se na one sa visokim rizikom. Mnogi AI startapovi će možda otkriti da je njihov proizvod zapravo minimalnog ili ograničenog rizika i da je dovoljno samo priložiti odgovarajuće napomene i obaveštenja, a ne sprovoditi čitav program usklađivanja. Za one iz oblasti visokog rizika (poput medteh AI startapa ili startapa koji razvija alatke za zapošljavanje), rano uključivanje regulatora (preko sandboksa ili konsultacija) biće ključ. Akt izričito podstiče „pro-inovacijski pristup” u svojoj primeni – što znači da regulatori treba da imaju u vidu potrebe manjih aktera i da ne primenjuju jednolično represivan pristup, posebno u ranoj fazi seniorexecutive.com. U praksi će verovatno postojati svojevrsni period prilagođavanja, gde će kompanije koje iskreno pokušavaju da se usklade pre dobijati smernice, a ne odmah kazne. Globalne i ne-EU kompanije: Kao i GDPR, Akt o veštačkoj inteligenciji ima eksteritorijalni domet. Ako se AI sistem plasira na tržište EU ili se njegov rezultat koristi u EU, pravila mogu biti primenjena bez obzira na to gde se provajder nalazi artificialintelligenceact.eu. To znači da američke, azijske ili druge međunarodne kompanije ne mogu ignorisati Akt o veštačkoj inteligenciji ako imaju korisnike ili klijente u Evropi. Na primer, kompanija iz Silikonske doline koja prodaje AI alat za zapošljavanje evropskim klijentima moraće da osigura da taj alat zadovoljava EU zahteve (ili ga njihovi klijenti u EU neće moći legalno koristiti). Za velike globalne tehnološke kompanije (Google, Microsoft, OpenAI itd.), Akt o veštačkoj inteligenciji već sada utiče na ponašanje. Čak i pre usvajanja zakona, neke kompanije su počele da pružaju veću transparentnost ili kontrolu u svojim AI proizvodima, anticipirajući regulativu. Na primer, provajderi generativne veštačke inteligencije razvijaju alatke za označavanje sadržaja generisanog AI-jem, a nekoliko njih je objavilo podatke o podacima za treniranje i ograničenjima modela kao odgovor na pritisak iz EU. Postoji i argument da bi usklađenost sa Aktom EU o AI-u mogla postati konkurentska prednost ili znak kvaliteta – slično kao što se proizvodi „usaglašeni sa GDPR” smatraju prijateljskima prema privatnosti, proizvodi sa oznakom „EU AI Act-compliant” mogli bi biti percipirani kao pouzdaniji na globalnom nivou. Ipak, globalne kompanije moraju da balansiraju između različitih jurisdikcija. Pravila EU se možda neće u potpunosti podudarati, recimo, sa nadolazećim američkim propisima. Neke američke savezne države ili federalne smernice mogu biti u sukobu ili zahtevati drugačije izveštavanje. Zbog toga, međunarodne firme bi mogle standardizovati prema najstrožem režimu (često onom iz EU) kako bi imale jedan globalni pristup – to se desilo i sa GDPR kada su mnoge kompanije proširile GDPR prava širom sveta. Možda ćemo videti da provajderi veštačke inteligencije globalno prihvataju prakse transparentnosti EU (poput označavanja AI sadržaja) radi doslednosti. Akt bi, na taj način, mogao efektivno da izvozi EU standarde vezane za „pouzdanu veštačku inteligenciju” na druga tržišta, ukoliko velike kompanije primene promene na svim verzijama svojih proizvoda. Ipak, fragmentacija predstavlja rizik: ukoliko druge regije razviju različita pravila, globalne kompanije će možda morati da održavaju posebne verzije AI proizvoda ili funkcija za različite regione. Tako, na primer, AI aplikacija može imati poseban „EU režim” sa dodatnim zaštitama. Vremenom je to neefikasno, zbog čega će postojati pritisak za međunarodno usklađivanje (više o tome u sledećem odeljku). Sa stanovišta korporativne strategije, velike firme će verovatno formirati posebne timove za usklađenost sa veštačkom inteligencijom (ukoliko to već nisu učinile) kako bi proveravale svoje AI sisteme u odnosu na odredbe Akta. Možda ćemo videti pojavu trećih lica, AI revizorskih firmi, koje nude usluge sertifikacije – nove ekosisteme slične revizijama sajber bezbednosti – koje će i velike i srednje kompanije koristiti da potvrde usklađenost pre nego što se pojavi zvanični regulator na vratima.

Još jedna implikacija tiče se investicija: kako VC investitori tako i kupci iz preduzeća će sprovoditi dubinsku proveru usklađenosti sa AI Aktom. Investitori mogu tražiti od startapova da odgovore na pitanja kao što su: “Da li ste obavili procenu rizika po AI Aktu? Da li ste u sandbox okruženju ili imate plan za CE označavanje ako je potrebno?” – slično kao što je usklađenost sa zaštitom privatnosti postala stavka na kontrolnoj listi nakon donošenja GDPR-a. Kompanije koje mogu da dokažu usklađenost mogu lakše da obezbede partnerstva i prodaje u Evropi, dok one koje to ne mogu mogu biti viđene kao rizičnija ulaganja.

Ukratko, za MSP i startapove, Akt je mač sa dve oštrice – donosi jasnoću i potencijalnu konkurentsku prednost za “odgovorna AI” rešenja, ali podiže i prag za ulazak u određene visokorizične oblasti. Za globalne kompanije, Akt može efektivno uspostaviti de fakto globalni standard za upravljanje veštačkom inteligencijom (kao što je GDPR uradio u domenu zaštite podataka), i kompanije će morati da integrišu ove zahteve u svoje cikluse razvoja AI rešenja. EU se nada da će podsticanjem poverenja kroz regulaciju zapravo povećati korišćenje AI – i da će firme i potrošači biti spremniji da koriste AI znajući da je pod nadzorom. Međutim, to je moguće samo ako je usklađenost izvodljiva; inače bi inovacije mogle da se presele u manje regulisana okruženja.

Implikacije na inovacije, AI investicije i međunarodno usklađivanje

EU AI Akt izazvao je opsežnu debatu o svom širem uticaju na AI pejzaž – da li će ugušiti inovacije ili ih podstaći? Kako će uticati na globalno upravljanje veštačkom inteligencijom? Evo nekih ključnih očekivanih uticaja:

Inovacija: kočnica ili akcelerator? Kritičari tvrde da stroga pravila Akta, posebno za visokorizične AI sisteme, mogu usporiti eksperimentalne inovacije, posebno kod startapova koji su često pokretači najsavremenijih rešenja seniorexecutive.com. Zadaci usklađivanja (dokumentacija, procene itd.) mogu produžiti razvojni ciklus i preusmeriti resurse sa čistog istraživanja i razvoja. Na primer, AI istraživački tim može morati da provede dodatne mesece validirajući podatke i pišući izveštaje o usklađenosti pre objavljivanja proizvoda. Postoji zabrinutost zbog mogućeg “odliva inovacija” gde najtalentovaniji stručnjaci ili kompanije odluče da se baziraju u regionima sa manje regulatornih prepreka seniorexecutive.com. Ako Evropa postane previše komplikovana za navigaciju, sledeći AI proboj mogao bi da nastane u SAD ili Aziji, a zatim eventualno bude adaptiran za Evropu (ili uopšte ne bude dostupan u EU).

Već smo videli da su neke AI usluge (naročito neke generativne AI aplikacije) blokirale korisnike iz EU ili odlagale lansiranja navodeći regulatornu neizvesnost. Vremenom, ako se Akt doživi kao previše opterećujući, Evropa rizikuje da zaostane u primeni AI u odnosu na liberalnija okruženja.

S druge strane, mnogi iz industrije veruju da jasna pravila mogu podstaći inovacije smanjenjem neizvesnosti seniorexecutive.com. Akt kreira predvidljivo okruženje – kompanije znaju “pravila igre” i mogu inovirati sa sigurnošću da, ako prate smernice, njihov AI neće kasnije biti zabranjen ili meta javnog linča. Često pominjana prednost je da će Akt povećati poverenje javnosti u AI, što je ključno za njeno prihvatanje. Ako građani veruju da je AI u Evropi proverena na bezbednost i pravičnost, lakše će prihvatiti AI rešenja, proširujući tako tržište za AI proizvode. Preduzeća će verovatnije ulagati u AI projekte znajući da postoji okvir za usklađivanje koji ih vodi, umesto da strahuju od neregulisanog Divljeg zapada koji bi mogao dovesti do skandala ili tužbi.

U suštini, Akt pokušava da pronađe balans: uvodi određenu dozu “frikcije” (nadzora, odgovornosti) sa namerom da to omogući dugoročnu održivu inovaciju umesto kratkoročnog haotičnog napretka. Uvođenje sandbox okruženja i fokus na MSP pokazuje da je EU svesna da previše prepreka = izgubljena inovacija, i da se aktivno trudi da to ublaži.

Postoji i argument da etička AI inovacija može predstavljati konkurentsku prednost. Evropske kompanije bi mogle da se specijalizuju za AI koja je transparentna i usmerena na čoveka po dizajnu, što im daje prednost u vreme kada raste globalna potražnja za odgovornom veštačkom inteligencijom. Već sada je oblast etike AI i alata za usklađenost u porastu – od softvera za detekciju pristrasnosti do platformi za dokumentaciju modela – delom podstaknuta očekivanim regulativama poput ove.

AI investicije: Kratkoročno gledano, troškovi usklađenosti predstavljaju novu “takso” na AI razvoj, što može dovesti investitore da budu nešto oprezniji ili da rasporede sredstva za potrebe usklađivanja. Neki VC i PE fondovi mogli bi da izbegavaju startapove u strogo regulisanim AI domenima osim ako ti startapovi nemaju jasan plan za usklađenost (ili dok god potencijal tržišta ne nadmaši trošak regulative). Sa druge strane, možemo očekivati povećane investicije u pojedinim oblastima:

  • RegTech za AI: Kompanije koje nude rešenja za pomoć u usklađivanju sa AI Aktom (npr. AI revizorske usluge, automatizacija dokumentacije, alati za nadzor modela) mogle bi doživeti bum investicija kako bude rasla potražnja za njihovim proizvodima.
  • AI osiguranje i standardi: Moguće je finansiranje AI projekata koji ispunjavaju ili premašuju regulatorne zahteve i samim tim se izdvajaju na tržištu. Na primer, AI model koji je dokazivo objašnjiv i pravičan može privući i korisnike i investitore impresionirane pristupom “usklađenost po dizajnu”.

Sama EU usmerava investicije u AI istraživanje i inovacije koje su usklađene sa poverenjem. Kroz programe poput Horizont Evropa i Digital Europe, sredstva se usmeravaju projektima koji ističu transparentnost, robusnost i usaglašenost sa evropskim vrednostima. Dakle, javno finansiranje se koristi da bi se inovacije nastavile, ali pod jasno određenim smernicama.

Mogući rezultat je da će neki AI sektori procvetati u Evropi (oni koji se lako uklapaju u pravila, npr. AI za zdravstvo koji može dokazati benefite po bezbednost), dok bi drugi mogli da zaostanu (poput AI za moderaciju sadržaja na društvenim mrežama, ako se proceni da je previše rizičan ili komplikovan za usklađivanje – naravno, hipotetički). Možda ćemo videti i preusmeravanje sa AI rešenja za potrošače ka poslovnim korisnicima u Evropi – jer AI direktno okrenut građanima može privući veću pažnju regulatora (posebno ako utiče na ponašanje), dok se AI u poslovnoj upotrebi može lakše kontrolisati što se tiče regulative.

Globalno usklađivanje ili fragmentacija: Na međunarodnom nivou, EU AI Akt se pomno prati. Zaista može postati šablon koji će druge demokratije prilagoditi sopstvenim potrebama. Već sada je Brazil usvojio nacrt zakona sa EU-inspirisanom procenom rizika cimplifi.com, dok su zemlje poput Kanade izradile nacrte AI zakona (AIDA zakon) koji se fokusiraju na visokorizični AI i smanjenje rizika cimplifi.com. Ovi napori su pod snažnim uticajem evropskog pristupa. Ako više jurisdikcija usvoji slične okvire, približavamo se usklađivanju – što je povoljno za AI kompanije jer znači manje divergentnih pravila za ispunjavanje.

Ipak, nisu svi izabrali istovetan put. Ujedinjeno Kraljevstvo je do sada otvoreno zauzelo blaži, na principima zasnovan pristup, preferirajući regulaciju posredstvom sektoriskih regulatora, a ne jedinstvenim zakonom cimplifi.com. UK ističe inovacije i napominje da ne želi da previše reguliše mladu tehnologiju. Verovatno će kasnije imati svoj AI zakon, ali je gotovo izvesno da će biti manje preskriptivan od evropskog. Japan i druge zemlje takođe su najavile mekši pristup koji se više oslanja na dobrovoljno upravljanje i etičke principe, a manje na obavezujuća pravila.

U Sjedinjenim Američkim Državama trenutno nema saveznog AI zakona sličnog evropskom. Umesto toga, SAD su objavile neobavezujući nacrt AI Povelje o pravima, koji postavlja široke principe kao što su bezbednost, nediskriminacija, zaštita podataka, transparentnost i ljudske alternative weforum.org, ali to je više smernica politike nego zakon sa pravnom snagom. U SAD je verovatniji scenario usmeravanje regulative po sektorima (na primer, FDA reguliše AI u medicinskim uređajima, finansijski regulatori nadziru AI u bankarstvu) i oslanjanje na postojeće zakone kada se radi o pitanjima poput diskriminacije ili odgovornosti. Krajem 2023. i 2024. godine, SAD su ubrzale aktivnosti – Bajdenova administracija je izdala Izvršnu naredbu o AI (oktobar 2023.) koja, između ostalog, zahteva od programera naprednih modela da vladi dostave rezultate testova bezbednosti i reguliše AI u oblastima kao što su bio-bezbednost i građanska prava. Međutim, to je izvršna odluka, a ne zakonodavstvo. U međuvremenu, u Kongresu se vode rasprave i izrađuju predlozi zakona, ali do sredine 2025. nijedan nije usvojen. Verovatni scenario za SAD je “šarenilo”: neke savezne države imaju sopstvene AI zakone (na primer, zakone o transparentnosti za AI-generisane duboke laži ili pravila za AI u zapošljavanju), a federalne agencije nadgledaju poštovanje postojećih propisa (FTC za nepoštene AI prakse, EEOC za pristrasnost u AI regrutaciji itd.), a ne jedan sveobuhvatni akt.

To znači da kompanije kratkoročno imaju pred sobom divergentni regulatorni pejzaž: strog režim u EU, liberalniji (ali u razvoju) režim u SAD i različite modele širom sveta. Analiza medija Senior Executive predviđa da će SAD ostati pri sektorskoj strategiji kako bi zadržale konkurentsku prednost, dok će Kina nastaviti sa strogim sistemskim nadzorom, a druge zemlje kao što su UK, Kanada i Australija birati fleksibilnije smernice seniorexecutive.com. Ova razlika može biti izazov – kompanije će morati da prilagođavaju svoje AI sisteme zakonodavstvu svake regije, što je neefikasno i skupo, i može usporiti globalno implementiranje AI jer je neophodno proveriti usklađenost po više regulatornih okvira.

Sa pozitivne strane, postoje aktivni napori za međunarodnu koordinaciju: EU i SAD kroz svoj Savet za trgovinu i tehnologiju imaju radnu grupu za veštačku inteligenciju koja pokušava da pronađe zajednički jezik (radeći na temama poput terminologije i standarda za veštačku inteligenciju). G7 je pokrenuo Hiroshima AI Process sredinom 2023. godine kako bi se raspravljalo o globalnom upravljanju veštačkom inteligencijom, a jedna od ideja bila je razvijanje kodeksa ponašanja za AI kompanije na međunarodnom nivou. Organizacije kao što su OECD i UNESCO postavile su principe za veštačku inteligenciju na koje su mnoge zemlje (uključujući SAD, EU i čak Kinu u slučaju OECD-a) pristale – ti principi pokrivaju već dobro poznata polja (pravičnost, transparentnost, odgovornost). Nada je da bi oni mogli biti osnova za usklađivanje propisa.

Dugoročno, neki veruju da bismo mogli završiti sa konvergencijom osnovnih principa čak i ako se pravni mehanizmi razlikuju seniorexecutive.com. Na primer, gotovo svi se slažu da veštačka inteligencija ne bi smela biti nesigurna ili očigledno diskriminatorna – način na koji se očekivanja sprovode može se razlikovati, ali je ishod (bezbednija, pravičnija veštačka inteligencija) zajednički cilj. Moguće je da ćemo kroz dijaloge i eventualno međunarodne sporazume videti delimičnu harmonizaciju. Fragmentirani početak bi na kraju mogao dovesti do objedinjene grupe normi seniorexecutive.com, naročito kako se tehnologija veštačke inteligencije globalizuje (teško je ograničiti AI sposobnosti u povezanom svetu).

Liderstvo i konkurencija u oblasti veštačke inteligencije: Tu je i geopolitički aspekt. EU sebe pozicionira kao lidera u etičkom upravljanju veštačkom inteligencijom. Ako njen model dobije globalnu podršku, EU bi mogla imati prevagu u određivanju standarda (kao što je to učinila sa GDPR-om, koji je uticao na globalnu zaštitu podataka). S druge strane, ako se Akt doživi kao ograničenje evropske AI industrije dok druge regije napreduju, EU bi mogla biti kritikovana zbog samonametnutih konkurentskih nedostataka. Američke tehnološke kompanije trenutno prednjače u mnogim oblastima AI, a Kina puno ulaže u veštačku inteligenciju. Evropska opklada je da će pouzdana veštačka inteligencija pobediti neregulisanu veštačku inteligenciju na duži rok, ali to ostaje da se vidi.

Prvi znaci tokom 2025. sugerišu na oboje: neke AI kompanije su izjavile da ih evropska pravila podstiču da razvijaju bolje interne kontrole (pozitivno), dok su druge pauzirale određene usluge u Evropi (negativno). Takođe vidimo da se međunarodne kompanije angažuju sa regulatorima EU – na primer, veliki AI laboratoriji bili su u razgovorima sa EU o tome kako primeniti obeležavanje AI sadržaja, što ukazuje da Akt već utiče na globalni dizajn proizvoda.

Iz perspektive ulaganja i istraživanja, može se očekivati da će se više AI istraživača fokusirati na oblasti poput objašnjivosti, smanjenja pristrasnosti i verifikacije – jer su to zahtevi za usklađenost. EU finansira dosta istraživanja u ovim oblastima, što bi moglo dovesti do otkrića koja veštačku inteligenciju čine inherentno bezbednijom i lakšom za regulaciju (npr. nove tehnike za interpretaciju neuronskih mreža). Ako se ovakvi proboji dogode, od njih bi svi mogli imati koristi, ne samo Evropa.

Ukratko, EU AI Akt je hrabar regulatorni eksperiment koji bi mogao postaviti globalni standard za upravljanje veštačkom inteligencijom ili, ako bude loše kalibrisan, rizikovati izolaciju evropskog AI ekosistema. Najverovatnije će imati značajan uticaj na oblikovanje: AI inovacije neće stati, ali će se prilagoditi tako da uključe regulatorne „zaštitne ograde“. Kompanije i investitori prilagođavaju strategije – uključuju usklađenost u razvoj proizvoda, uzimaju u obzir troškove poslovanja sa AI na tržištu EU, a neki mogu promeniti fokus ka aplikacijama nižeg rizika ili drugim tržištima. Na međunarodnom nivou, nalazimo se na raskršću: da li će svet slediti EU (što vodi ka ujednačenijim globalnim standardima za veštačku inteligenciju), ili ćemo videti podele tako da se veštačka inteligencija razvija različito u skladu sa različitim regulatornim filozofijama? Sledeće godine, kako odredbe Akta budu u potpunosti primenjene i druge zemlje budu odgovarale, biće veoma značajne.

Globalne regulative za AI: Akt EU naspram SAD i Kine (i drugih)

EU AI Akt ne postoji u vakuumu – deo je šireg globalnog pokreta za rešavanje izazova veštačke inteligencije. Uporedimo ga sa pristupima u Sjedinjenim Američkim Državama i Kini, još dve AI supersile sa potpuno različitim regulatornim filozofijama, i navedimo još nekoliko drugih:

Sjedinjene Američke Države (Nacrt Povelje o pravima za AI & Razvijajuće politike): SAD su do sada preuzele manje centralizovan, više na principima zasnovan pristup. U oktobru 2022, Kancelarija Bele kuće za naučnu i tehnološku politiku izdala je Nacrt Povelje o pravima za AI, koji predstavlja skup od pet smernica za dizajn i upotrebu automatizovanih sistema weforum.org:

  1. Bezbedni i efikasni sistemi – Amerikanci treba da budu zaštićeni od nesigurnih ili neispravnih AI rešenja (npr. AI mora biti testirana i nadgledana da bi bila efikasna u svojoj nameni) weforum.org.
  2. Zaštita od algoritamske diskriminacije – AI sistemi ne smeju nepravedno diskriminisati i moraju se koristiti na pravičan način weforum.org. Ovo se vezuje za postojeće zakone o građanskim pravima; suština je da se AI ne sme koristiti kao rupa u zakonu za diskriminaciju koja bi bila nelegalna da je u pitanju ljudska odluka.
  3. Privatnost podataka – Ljudi treba da imaju kontrolu nad time kako se njihovi podaci koriste u AI i da budu zaštićeni od zloupotrebe podataka weforum.org. Ovo ne uvodi novi zakon o privatnosti, ali pojačava da AI ne sme narušavati privatnost i mora koristiti podatke minimalno.
  4. Obaveštenje i objašnjenje – Ljudi treba da znaju kada se koristi AI sistem i da budu u mogućnosti da razumeju zašto im je doneta određena odluka weforum.org. Ovo podrazumeva transparentnost i objašnjivost, slično kao kod zahteva za transparentnost prema EU pravilima.
  5. Ljudske alternative, razmatranje i rešenja – Treba da postoje opcije za isključenje ili ljudsku intervenciju kada je to primereno weforum.org. Na primer, ako vam AI uskrati nešto važno (kao što je stambeni kredit), treba da možete da se žalite čoveku ili dobijete drugo mišljenje.

Ovi principi odražavaju mnoge ciljeve iz EU Akta (bezbednost, pravičnost, transparentnost, ljudski nadzor), ali klјučno, AI Bill of Rights nije zakon – to je okvir politike bez obavezujuće snage weforum.org. Za sada se najviše odnosi na federalne agencije, usmeravajući način na koji vlada naručuje i koristi veštačku inteligenciju. Očekuje se da daje primer i industriji, i zaista, neke kompanije su podržale ove principe. Ali poštovanje je dobrovoljno; nema kazni koje su direktno vezane za AI Bill of Rights.

Pored toga, SAD se za sada oslanjaju na postojeće zakone za sankcionisanje najvećih šteta prouzrokovanih veštačkom inteligencijom. Na primer, Federalna trgovinska komisija (FTC) upozorila je kompanije da ih može kazniti za nepoštene ili obmanjujuće prakse povezane sa AI (poput lažnih tvrdnji šta AI može da uradi ili korišćenja AI na načine koji štete potrošačima). Komisija za jednake šanse pri zapošljavanju (EEOC) razmatra kako se zakoni o zapošljavanju primenjuju na AI alate za zapošljavanje – npr. ako AI sistematski odbija starije kandidate, to bi moglo kršiti zakone protiv diskriminacije. Dakle, sprovođenje propisa u SAD postoji, ali prema opštim zakonima, a ne specifičnim za AI.

Ipak, u SAD se situacija počinje menjati. Tokom 2023-2024. godine u Kongresu su vođene ozbiljne diskusije o regulisanju veštačke inteligencije, podstaknute brzim razvojem generativne AI. Predloženo je više zakona o AI (od obeležavanja deepfake sadržaja do transparentnosti AI i okvira za odgovornost), ali nijedan još nije usvojen. Priča se o osnivanju saveznog instituta za sigurnost veštačke inteligencije ili davanju novih ovlašćenja agencijama da nadziru AI. Verovatno je da će SAD u narednim godinama razviti konkretnije regulative za AI, ali verovatno više kroz ciljana rešenja nego kroz opšti zakon kao u EU. SAD uglavnom reguliše prema sektoru – na primer, AI u zdravstvu mora ispunjavati smernice FDA, a FDA je već izdao smernice za „softver kao medicinski uređaj“ koje pokrivaju određene AI algoritme. Još jedan primer: finansijski regulatori (poput CFPB ili OCC) zainteresovani su za AI modele kreditiranja i mogu zahtevati pravičnost koristeći postojeće finansijske zakone.

Jedna oblast u kojoj su SAD preduzele odlučnu akciju jeste veštačka inteligencija vezana za nacionalnu bezbednost: Najnovija izvršna naredba američke vlade zahteva od razvijača naprednih AI modela da dele rezultate bezbednosnih testova sa državom ako njihovi modeli mogu imati posledice po nacionalnu bezbednost (kao što je modelovanje opasnih bioloških agenasa). Ovo je usmereniji pristup u poređenju sa EU, koja nema specifične izuzetke za nacionalnu bezbednost, osim za potrebe sprovođenja zakona.

Ukratko, američki pristup je trenutno blag i zasnovan na principima, sa naglaskom na inovacijama i postojećim pravnim okvirima. Kompanije se podstiču (ali još nisu primorane) da slede etičke smernice. Za razliku od EU, gde se principi sprovode zakonom uz revizije i kazne, SAD ih za sada koriste kao preporuku i oslanjaju se na tržišne sile i opšte zakone za sprovođenje. Da li će SAD na kraju više konvergirati sa EU (usvajanjem svog AI Akta ili seta pravila) je ključno pitanje. U SAD postoje glasovi koji pozivaju na više regulacije kako bi se osigurala konkurentnost i poverenje javnosti, ali i jaki glasovi koji upozoravaju na prekomernu regulativu koja bi mogla da zakoči tehnološku industriju. Moguće je da vidimo sredinu: npr. zahtev za transparentnošću u određenim kritičnim AI sistemima ili sertifikaciju za AI u osetljivim slučajevima bez potpunog režima kategorizacije rizika.

Regulativa i standardi za veštačku inteligenciju u Kini: Kina ima veoma drugačiji politički sistem i njeno upravljanje veštačkom inteligencijom odražava njene prioritete: društvenu stabilnost, kontrolu informacija i strateško vođstvo u oblasti veštačke inteligencije. Kina brzo širi svoj regulatorni okvir, sa pristupom koji je posebno strog u pogledu sadržaja i upotrebe, a često se sprovodi putem administrativnih pravila.

Ključni elementi kineskog pristupa uključuju:

  • Obavezna revizija i cenzura AI sadržaja: U avgustu 2023. Kina je primenila Privremene mere za usluge generativne veštačke inteligencije cimplifi.com. Ova pravila zahtevaju da svaki javno ponuđeni generativni AI (kao što su četbotovi ili generatori slika) mora da obezbedi da sadržaj bude u skladu sa osnovnim socijalističkim vrednostima i da je zakonit i istinit. Pružaoci moraju proaktivno filtrirati zabranjeni sadržaj (sve što se može smatrati subverzivnim, opscenim ili na drugi način nedozvoljenim prema kineskom režimu cenzure). Ovo znači da kineske AI kompanije ugrađuju robusne sisteme za moderaciju sadržaja. Pravila takođe zahtevaju označavanje AI-generisanog sadržaja kada postoji mogućnost da bi mogao zbuniti ljude šta je stvarno cimplifi.com. Ovo je veoma slično EU zahtevu za označavanje dubokih laži (deepfake), ali je u Kini to predstavjeno kao način sprečavanja dezinformacija koje bi mogle izazvati društveni nered.
  • Registracija algoritama: Čak i pre regulative za generativni AI, Kina je imala regulative za preporučujuće algoritme (na snazi od početka 2022). Kompanije su morale registrovati svoje algoritme kod Uprave za sajber prostor Kine (CAC) i dostaviti informacije o njihovom funkcionisanju. Ovaj centralni registar je namenjen nadzoru; državni organi žele da znaju koji se algoritmi koriste, posebno oni koji utiču na javno mnjenje (kao što su algoritmi za vesti).
  • Verifikacija pravog imena i kontrola podataka: Kineska regulativa često zahteva da korisnici AI usluga budu registrovani pod svojim pravim identitetom (da bi se obeshrabrila zloupotreba i omogućilo praćenje ko je kreirao koji sadržaj). Podaci korišćeni za obuku AI modela, naročito oni koji mogu sadržati lične informacije, predmet su Zakona o bezbednosti podataka i Zakona o zaštiti ličnih podataka. Dakle, kineske kompanije moraju da se nose i sa zahtevima za pristup podacima od strane vlade (vlada može zahtevati pristup podacima i algoritmima radi bezbednosti).
  • Procene bezbednosti: U periodu 2024-2025, kineski organ za standardizaciju (NISSTC) objavio je nacrt smernica o bezbednosti za generativni AI cimplifi.com. Detaljno su opisane tehničke mere za rukovanje podacima za obuku, bezbednost modela itd., u skladu sa fokusom vlade da AI ne može lako biti zloupotrebljen ili da ne generiše zabranjeni sadržaj. U martu 2025. CAC je finalizovao Mere za upravljanje oznakama AI-generisanog sadržaja (kao što je navedeno) koje čine da od septembra 2025. svaka AI-generisana sadržina mora biti jasno označena kao takva cimplifi.com. Ovo se podudara sa sličnim pravilom EU, iako je kinesko obrazloženje delimično u borbi protiv „glasina“ i za očuvanje kontrole nad informacijama.
  • Široki etički okviri: Kina je objavila i principe na visokom nivou – na primer, 2021. Ministarstvo za nauku i tehnologiju Kine izdalo je etičke smernice za AI koje govore o ljudskoj orijentaciji i kontroli. Godine 2022. Nacionalni odbor za upravljanje veštačkom inteligencijom (multistakeholderska grupa) objavio je dokument Principi upravljanja AI naglašavajući harmoniju, pravičnost i transparentnost. U 2023. Kina je objavila Okvir za bezbedno upravljanje AI usklađen sa svojom globalnom inicijativom za AI; ističući stvari kao što su pristup usmeren na ljude i kategorizacija rizika cimplifi.com. Ovi principi liče na one koje promovišu OECD ili EU, pokazujući da i Kina želi da bude prepoznata kao promoter „odgovorne veštačke inteligencije“, iako u svom kontekstu (npr. pravičnost u Kini može značiti sprečavanje predrasuda prema etničkim manjinama, ali i obezbeđivanje da AI ne ugrozi nacionalno jedinstvo).
  • Stroga upotreba (ili zloupotreba) u sprovođenju zakona: Dok EU zabranjuje mnoge aplikacije za biometrijsko prepoznavanje u realnom vremenu, Kina je lider u primeni AI za nadzor (npr. prepoznavanje lica na javnim mestima, monitoring „pametnih gradova“ itd.). Postoje određene regulative da bi se osiguralo da policijska upotreba bude radi bezbednosti i pod kontrolom, ali generalno država ima široka ovlašćenja. Sistem društvenog kredita postoji u rudimentarnom obliku (pre svega kao finansijski kreditni i sudski registar), mada nije onako „naučnofantastičan“ kako se često prikazuje, a EU je eksplicitno zabranila ono što vidi kao „društveno ocenjivanje“.

U suštini, kineska regulativa je stroga u pogledu kontrole sadržaja i etičkih smernica, ali se sprovodi odozgo na dole. Ako je cilj EU zakona osnaživanje pojedinaca i stvaranje odgovornosti u postupku, kineski pristup je usmeren na kontrolu provajdera i obezbeđenje da veštačka inteligencija ne poremeti ciljeve države. Za kompanije, usklađenost u Kini znači blisku saradnju sa državnim organima, ugrađenu cenzuru i funkcije izveštavanja i usklađenost sa nacionalnim ciljevima (npr. korišćenje AI za ekonomski razvoj, ali ne za proteste).

Može se reći da je kineski režim „strog, ali drugačiji“: ne naglašava javnu transparentnost (prosečan kineski korisnik možda ne dobije objašnjenje zašto je AI doneo neku odluku), ali naglašava praćenje tragova i državnu vidljivost AI sistema. Takođe direktno zabranjuje upotrebe koje bi na Zapadu do određene granice bile dozvoljene (kao, na primer, određene vrste političkog izražavanja putem AI).

Kineske AI kompanije, kao što su Baidu ili Alibaba, morale su da povuku ili ponovo obuče modele koji su proizvodili politički osetljiv sadržaj. Razvoj velikih modela u Kini je pod snažnim uticajem ovih pravila – unapred filtriraju podatke za obuku kako bi uklonili tabu teme i dodatno podešavaju modele da izbegnu određene teme.

Zanimljivo je da se neki zahtevi Kine (kao označavanje dubokih laži) poklapaju sa onima iz EU, mada iz malo drugačijih razloga. Ovo ukazuje na potencijalno približavanje tehničkim standardima – označavanje AI-generisanih medija bi možda moglo postati globalna norma, čak i ako su motivacije različite (EU: zaštita od obmane; Kina: to, uz održavanje kontrole).

Druge zemlje: Van ove tri, nekoliko značajnih primera:

  • Kanada: Kao što je ranije pomenuto, Kanada je predložila Zakon o veštačkoj inteligenciji i podacima (AIDA) kao deo zakona C-27 cimplifi.com. Ciljao je na „sisteme veštačke inteligencije sa visokim uticajem“ sa zahtevima za procene uticaja i određenim zabranama. Međutim, ovaj zakon je zastao (do početka 2025. nije usvojen i praktično je „umro“ u Parlamentu cimplifi.com). Kanada bi mogla kasnije da ga razmotri ponovo. U međuvremenu, Kanada se vodi principima na osnovu članstva u organizacijama poput OECD.
  • Ujedinjeno Kraljevstvo: UK, u raskoraku sa EU, objavilo je Belu knjigu o regulaciji veštačke inteligencije (mart 2023) sa naglaskom na pro-inovativna i blaga pravila. Plan Velike Britanije je da postojeći regulatori (poput Agencije za zdravlje i bezbednost, Finansijskog nadzornog tela, itd.) izdaju AI smernice relevantne za njihove sektore, zasnovane na zajedničkim principima (bezbednost, transparentnost, pravičnost, odgovornost, mogućnost žalbe) cimplifi.com. Svesno su odlučili da odmah ne donose novi zakon o veštačkoj inteligenciji. UK prati kako se primenjuje EU zakon i možda će se prilagoditi, ali želi da zadrži fleksibilnost, posebno radi privlačenja AI biznisa. Takođe su domaćin Samita o bezbednosti veštačke inteligencije (održanog u novembru 2023) kako bi se pozicionirali u globalnim AI raspravama. Pristup UK možda podrazumeva manje ograničenja na kratak rok, ali se može promeniti ako se AI rizici materijalizuju.
  • Ostali u EU orbiti: Savet Evrope (koji je širi od EU) radi na Konvenciji o veštačkoj inteligenciji koja bi mogla postati pravno obavezujući ugovor o etici i ljudskim pravima u AI – još uvek je u fazi izrade, ali ako bude usvojen, mogao bi obavezati potpisnice (uključujući i neke evropske države van EU) na principe slične EU Aktu, ali na širem nivou.
  • Indija, Australija itd.: Mnoge zemlje su objavile smernice o etici veštačke inteligencije. Indija, na primer, ima okvirni pristup i više je usmerena na inovacije, trenutno ne planira poseban zakon o AI, već fokus stavlja na jačanje kapaciteta i sektorske smernice. Australija razvija okvire zasnovane na riziku, ali najverovatnije još ne ide ka strogom zakonu. Opšti trend je da svi prepoznaju potrebu za upravljanjem veštačkom inteligencijom, ali stepen čvrste regulative u odnosu na meke smernice varira.
  • Globalni forumi: UNESCO-ova Preporuka o etici veštačke inteligencije (2021) prihvaćena je od strane skoro 200 zemalja i pokriva principe poput proporcionalnosti, bezbednosti, pravičnosti itd. Nije obavezujuća, ali ukazuje na globalni konsenzus o vrednostima. OECD principi za AI (2019) su takođe široko prihvaćeni i faktički informisali rad G20. Ovi globalni principi su u velikoj meri usklađeni sa pristupom EU na papiru. Izazov je kako ih jednako sprovesti u praksi širom granica.

Svetski ekonomski forum i druge grupe takođe podstiču dijalog. Kao što je pomenuto u članku WEF-a, otvoreno je pitanje da li ćemo videti scenario „razilaženja puteva“ (gde SAD, Kina i EU idu svaki svojim regulatornim putem) ili „domino efekat“ gde potez EU podstiče druge da je slede weforum.org seniorexecutive.com. Ima dokaza za oba trenda: EU je jasno uticala na Brazil i Kanadu; SAD možda prilagođavaju neke stavove pod pritiskom EU (na primer, rasprava o većoj transparentnosti u SAD mogla bi biti odgovor na zahtev EU za većom transparentnošću); kinesko usklađivanje je delimično (deli neke tehničke standarde, ali ne i demokratski pristup).

Ukratko, pojednostavljeno poređenje bi bilo:

  • EU: Sveobuhvatna, pravno obavezujuća regulativa kroz različite sektore zasnovana na proceni rizika; fokus na osnovnim pravima, uz strogu primenu zakona (novčane kazne, nadzorna tela).
  • SAD: Nema jednog zakona (od 2025); oslanjanje na široke principe (Povelja o pravima u vezi sa veštačkom inteligencijom) i sektorsku regulativu; fokus na inovacije i postojeće okvire prava; za sada više samoregulacije industrije.
  • Kina: Detaljna pravila vlade za kontrolu rezultata i upotrebe veštačke inteligencije; fokus na bezbednost, cenzuru i nadzor države; obavezna usklađenost sa etičkim normama koje određuje država; primena zakona preko državnih agencija, sa strogim kaznama (uključujući i krivičnu odgovornost ako se prekrše pravila države).

Uprkos razlikama, sve tri strane prepoznaju probleme kao što su pristrasnost, bezbednost i transparentnost – samo ih različito postavljaju u prioritet i primenjuju. Za globalnu kompaniju, to znači navigaciju kroz tri režima: pridržavanje proceduralne rigoroznosti EU, praćenje smernica SAD i eventualnih novih državnih pravila, kao i sprovođenje kineskih pravila o sadržaju i registracionih zahteva ukoliko tamo posluje. Ovo predstavlja izazov i biće pritisaka na međunarodnim forumima da se smanji opterećenje usklađivanjem određenih aspekata (na primer, razvojem zajedničkih tehničkih standarda za upravljanje rizicima od veštačke inteligencije koji bi zadovoljili regulatore u više jurisdikcija).

Jedan ohrabrujući znak: saradnja na AI standardima (tehničkim standardima putem ISO/IEC ili drugih tela) mogla bi da omogući kompaniji razvoj veštačke inteligencije prema jednom setu specifikacija koji bi potom bio široko prihvaćen. EU Akt čak pominje da će poštovanje usklađenih evropskih standarda (kada budu postojali za veštačku inteligenciju) predstavljati pretpostavku usklađenosti artificialintelligenceact.eu. Ako ti standardi budu usklađeni sa globalnima, kompanija bi mogla „izgraditi jednom, a biti usklađena svuda“.

I na kraju, gledajući unapred, kako se AI tehnologija razvija (sa stvarima kao što su GPT-5 ili autonomniji sistemi veštačke inteligencije), tako će se razvijati i regulativa. EU je u akt ugradila mehanizme za preispitivanje i ažuriranje. SAD ili druge zemlje mogu uvesti nove zakone u slučaju velikog incidenta sa veštačkom inteligencijom koji bi podstakao reakciju (kao što su neki hakerski napadi pokrenuli strože zakone o privatnosti). Međunarodnu harmonizaciju može pokrenuti i nužnost – ako, recimo, veštačka inteligencija počne da ima značajne prekogranične posledice (na primer, AI-izazvana finansijska kriza ili slično), države će zajedno pokušati da se time pozabave.

Za sada, svaka organizacija koja želi da “bude u toku” sa veštačkom inteligencijom mora da prati situaciju na svim ovim poljima: Evropska usklađenost je neophodna za pristup tržištu EU, najbolje prakse iz SAD su ključne za to veliko tržište, a razumevanje zahteva Kine je od suštinskog značaja za one koji tamo posluju. Proaktivan pristup – integrisanje etičkih i bezbednih AI principa unutar same organizacije – kompaniju će najbolje pripremiti za ove različite režime. Ovo često znači uspostavljanje internog okvira za upravljanje veštačkom inteligencijom koji ispunjava najstrože standarde (najčešće EU), a zatim prilagođavanje po regionima prema potrebi.

Zaključno, EU Akt o veštačkoj inteligenciji od 2025. godine postavlja tempo u regulaciji AI-ja i, iako donosi izazove, nudi i strukturisan put ka pouzdanoj veštačkoj inteligenciji. Kompanije i vlade širom sveta prate situaciju i reaguju – neke pooštravaju svoje regulative, dok druge naglašavaju inovacije. U narednim godinama videće se kako će se ovi pristupi ukrštati i da li možemo postići usklađenije globalno upravljanje ili nas čeka šarolik mozaik kroz koji razvojni timovi AI-ja moraju pažljivo da plove. U svakom slučaju, oni koji prate informacije i na vreme se pripreme – razumejući nijanse EU Akta, ulažući u interne kapacitete za usklađenost i učestvujući u kreiranju politika – biće najbolje pozicionirani da napreduju u ovoj novoj eri nadzora nad veštačkom inteligencijom.

Izvori:

Оставите одговор

Your email address will not be published.

Don't Miss

Thailand Real Estate Market Outlook 2025: Trends, Forecast & Analysis

Izgledi za tržište nekretnina u Tajlandu 2025: Trendovi, prognoze i analiza

Izvod iz izvršnog rezimea: Tržište nekretnina Tajlanda u 2025. godini se
Boise Real Estate 2025: Surprising Trends, Price Booms & What’s Next

Некретнине у Бојсију 2025: Изненађујући трендови, пораст цена и шта следи

Stambeno tržište Bojsija u 2025. godini karakteriše stabilan, ali ne