Zákon EÚ o umelej inteligencii 2025: Všetko, čo potrebujete vedieť, aby ste ostali v predstihu

20 júna, 2025
EU AI Act 2025: Everything You Need to Know to Stay Ahead

Úvod a legislatívny prehľad

Zákon o umelej inteligencii Európskej únie (EU AI Act) je prvým komplexným rámcom na svete, ktorý reguluje umelú inteligenciu. Jeho cieľom je zaistiť dôveryhodnú umelú inteligenciu, ktorá chráni bezpečnosť, základné práva a spoločenské hodnoty digital-strategy.ec.europa.eu. Zákon bol navrhnutý Európskou komisiou v apríli 2021 a po rozsiahlych rokovaniach bol formálne prijatý v polovici roka 2024 europarl.europa.eu europarl.europa.eu. Ustanovuje riadenie na základe rizík, pričom ukladá povinnosti úmerné potenciálnemu škodlivému vplyvu AI systému artificialintelligenceact.eu.

Legislatívny harmonogram: Kľúčové míľniky zahŕňajú schválenie v Európskom parlamente v rokoch 2023–2024 a oficiálne zverejnenie 12. júla 2024, čím sa spustil začiatok platnosti zákona od 1. augusta 2024 artificialintelligenceact.eu artificialintelligenceact.eu. Jeho ustanovenia však nadobúdajú účinnosť postupne v nasledujúcich rokoch:

  • 2. februára 2025: AI systémy s neprijateľným rizikom zakázané. Všetky AI postupy považované za „neprijateľné riziko“ (viď nižšie) sú od tohto dátumu zakázané europarl.europa.eu. Členské štáty EÚ taktiež začali spúšťať programy zvyšovania AI gramotnosti na edukáciu verejnosti o umelej inteligencii artificialintelligenceact.eu.
  • 2. augusta 2025: Začínajú platiť pravidlá transparentnosti a riadenia. V tomto termíne vstupujú do platnosti nové pravidlá pre modely AI všeobecného účelu (tzv. foundation models) a AI riadiace orgány artificialintelligenceact.eu digital-strategy.ec.europa.eu. Začína pôsobiť celoeurópsky AI úrad (vysvetlené neskôr) a od tohto bodu je možné udeľovať sankcie za nedodržiavanie pravidiel orrick.com orrick.com.
  • 2. augusta 2026: Kľúčové požiadavky platia v plnom rozsahu. Väčšina povinností podľa zákona o AI – najmä pri nasadzovaní AI systémov s vysokým rizikom – sa stáva povinnou 24 mesiacov od nadobudnutia účinnosti digital-strategy.ec.europa.eu. Od tohto dátumu musia všetci poskytovatelia nových AI systémov s vysokým rizikom spĺňať zákon ešte pred ich uvedením na trh v EÚ.
  • 2. augusta 2027: Koniec predĺžených lehôt. Niektoré AI začlenené v regulovaných produktoch (napr. medicínske zariadenia s AI) majú prechodné obdobie 36 mesiacov, teda do roku 2027, na dosiahnutie súladu digital-strategy.ec.europa.eu. Rovnako aj poskytovatelia existujúcich modelov AI všeobecného účelu (uvedených na trh pred augustom 2025) ich musia aktualizovať tak, aby do roku 2027 spĺňali požiadavky zákona artificialintelligenceact.eu.

Tento fázovaný harmonogram dáva organizáciám čas na prispôsobenie sa, kým rýchle zásahy (ako zákaz škodlivých použití AI) adresujú najvážnejšie riziká bez zbytočného odkladu europarl.europa.eu. V ďalšej časti rozoberieme systém klasifikácie rizík podľa zákona a jeho význam pre aktérov v oblasti umelej inteligencie.

Klasifikácia podľa rizika: Neprijateľné, Vysoké, Obmedzené a Minimálne riziko

Podľa zákona EU AI Act je každý systém umelej inteligencie klasifikovaný podľa úrovne rizika, ktoré určuje mieru regulácie artificialintelligenceact.eu. Existujú štyri úrovne rizika:

  • Neprijateľné riziko: Takéto využitia AI predstavujú jasné ohrozenie bezpečnosti alebo základných práv a sú v rámci EÚ priamo zakázané digital-strategy.ec.europa.eu. Zákon zakazuje osem konkrétnych postupov, vrátane: AI využívajúcej subliminálne alebo manipulačné techniky spôsobujúce ujmu, AI škodlivo zneužívajúcej zraniteľné skupiny (napríklad deti alebo osoby so zdravotným postihnutím), štátne „sociálne skórovanie“ občanov a niektoré nástroje prediktívnej policajnej práce artificialintelligenceact.eu artificialintelligenceact.eu. Za zmienku stojí, že diaľková biometrická identifikácia v reálnom čase (napr. živé rozpoznávanie tváre na verejných priestranstvách) pre účely presadzovania práva je vo všeobecnosti zakázaná digital-strategy.ec.europa.eu. Existujú však obmedzené výnimky – napríklad polícia môže použiť rozpoznávanie tváre v reálnom čase na predchádzanie bezprostrednej teroristickej hrozbe alebo pátranie po nezvestnom dieťati, avšak len s justičným povolením a prísnym dohľadom europarl.europa.eu. V podstate nesmie byť nasadený žiadny AI systém, ktorého samotné použitie je považované za nezlučiteľné s hodnotami EÚ (napr. sociálne kredity či AI, ktorá neoprávnene predpovedá kriminálne správanie) digital-strategy.ec.europa.eu.
  • Vysoké riziko: Do tejto kategórie patria AI systémy, ktoré predstavujú vážne riziká pre zdravie, bezpečnosť alebo základné práva. Tieto sú povolené na trhu len pri zavedení rozsiahlych bezpečnostných opatrení. Prípady vysokého rizika sú definované dvoma spôsobmi: (1) AI komponenty, ktoré sú kľúčové pre bezpečnosť a už podliehajú predpisom EÚ o bezpečnosti produktov (napr. AI v medicínskych prístrojoch, automobiloch, letectve, atď.) artificialintelligenceact.eu; alebo (2) AI aplikácie v špecifických oblastiach uvedených v Prílohe III zákona artificialintelligenceact.eu. Príloha III zahŕňa oblasti ako kritická infraštruktúra, vzdelávanie, zamestnanosť, základné služby, presadzovanie práva, kontrola hraníc a správa spravodlivosti europarl.europa.eu europarl.europa.eu. Pre ilustráciu, zákon považuje AI používanú vo vzdelávaní (napr. na hodnotenie testov alebo rozhodovanie o prijatí na školu) za vysokorizikovú vzhľadom na jej vplyv na životné príležitosti človeka digital-strategy.ec.europa.eu. Rovnako aj AI pre nábor alebo riadenie pracoviska (napr. softvér na skenovanie CV) a systémy úverového hodnotenia patria medzi vysokorizikové použitia digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Dokonca aj chirurgický robot riadený AI či diagnostický nástroj v zdravotníctve je vysokorizikový, či už ako súčasť medicínskeho zariadenia, alebo kvôli riziku ohrozenia pacienta v prípade zlyhania digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI s vysokým rizikom je prísne regulovaná – skôr, než sa môže nasadiť, poskytovatelia musia zaviesť prísne riadenie rizík a absolvovať konformnú hodnotiacu procedúru (podrobnosti v ďalšej časti) cimplifi.com. Všetky vysokorizikové AI budú tiež registrované v databáze EÚ kvôli transparentnosti a dohľadu cimplifi.com. Dôležité je, že zákon stanovuje úzke výnimky, aby neboli „vysokorizikové“ všetky nevýznamné použitia v týchto oblastiach – napríklad, ak AI len asistuje pri ľudskom rozhodovaní alebo spracúva minoritnú podúlohu, nemusí byť zaradená medzi AI s vysokým rizikom artificialintelligenceact.eu. V zásade však každá AI vykonávajúca citlivé funkcie v uvedených sektoroch je považovaná za vysokorizikovú a musí splniť prísne požiadavky na súlad.
  • Obmedzené riziko: Táto kategória zahŕňa AI systémy, ktoré nie sú vysokorizikové, ale aj tak podliehajú určitým pravidlám transparentnosti artificialintelligenceact.eu. Zákon neukladá na tieto systémy veľkú záťaž – stačí, aby ľudia vedeli, že komunikujú s AI. Napríklad chatboty a virtuálni asistenti musia užívateľov jasne informovať, že komunikujú so strojom, nie s človekom digital-strategy.ec.europa.eu. Podobne, generatívna AI, ktorá vytvára syntetické obrázky, videá alebo zvuk (napr. deepfake), musí byť navrhnutá tak, aby označovala AI-generovaný obsah – napríklad vodoznakom alebo popisom – aby diváci neboli uvedení do omylu europarl.europa.eu digital-strategy.ec.europa.eu. Cieľom je zachovať dôveru používateľov prostredníctvom transparentnosti. Okrem týchto informačných povinností je možné AI s obmedzeným rizikom používať voľne bez predchádzajúceho schvaľovania. Zákon vo všeobecnosti považuje väčšinu spotrebiteľsky zameraných AI nástrojov za obmedzené riziko, kde hlavnou požiadavkou je informovať používateľa. Príkladom je AI na úpravu hlasu alebo tvorbu realistických obrázkov – tieto nie sú zakázané, ale musia byť jasne označené ako AI obsah, aby sa predišlo zavádzaniu europarl.europa.eu.
  • Minimálne (alebo nulové) riziko: Všetky ostatné systémy umelej inteligencie patria do tejto najnižšej kategórie, ktorá predstavuje drvivú väčšinu AI aplikácií. Tie nesú zanedbateľné alebo bežné riziká, a preto na ne AI Act neukladá žiadne nové regulácie artificialintelligenceact.eu digital-strategy.ec.europa.eu. Typickými príkladmi sú AI spamové filtre, algoritmy odporúčaní, AI v počítačových hrách alebo bežné AI nástroje v softvéri. Pre tieto prípady zákon v zásade platí princíp „nezavadzaj“ – vývoj a používanie týchto systémov zostáva ako doteraz, podliehajúce existujúcim zákonom (napr. ochrana spotrebiteľa, súkromie), ale bez osobitných povinností týkajúcich sa AI. EÚ explicitne uznáva, že väčšina AI systémov v prevádzke sú s nízkym rizikom a nemali by byť nadmerne regulované digital-strategy.ec.europa.eu. Regulácia sa zameriava na výnimky (vysoké a neprijateľné riziko), kým AI s minimálnym rizikom zostáva nezaťažená s cieľom podporiť ďalšie inovácie v týchto oblastiach.

Stručne, rizikový model EÚ zakazuje najhoršie praktiky AI, prísne reguluje citlivé použitia AI a zvyšok len minimálne obmedzuje cimplifi.com. Tento stupňovitý prístup má chrániť občanov pred ujmou, no zároveň brániť plošnej a neprimeranej regulácii všetkej AI. V ďalšej časti sa pozrieme na to, čo obnáša súlad so zákonom pre vývojárov a používateľov umelej inteligencie – najmä vo vysoko rizikovej kategórii.

Povinnosti pre vývojárov (poskytovateľov) a nasadzovateľov (používateľov) AI

Požiadavky na súlad pre AI s vysokým rizikom: Ak vyvíjate AI systém, ktorý je považovaný za vysoko rizikový, Akt o AI EÚ ukladá podrobný zoznam povinností pred uvedením systému na trh aj po ňom. Tieto povinnosti v podstate kopírujú praxe z bezpečnostne kritických odvetví a ochrany údajov, teraz aplikované na AI. Poskytovatelia (vývojári, ktorí uvádzajú systém na trh) AI s vysokým rizikom musia okrem iného:

  • Zaviesť systém riadenia rizík: Potrebujú nepretržitý proces riadenia rizík počas celého životného cyklu AI systému artificialintelligenceact.eu. To znamená identifikovať predvídateľné riziká (napr. bezpečnostné riziká, riziká zaujatosti alebo chýb), analyzovať a hodnotiť ich a prijímať opatrenia na zmiernenie už od návrhu cez nasadenie až po prevádzku artificialintelligenceact.eu. Je to podobné prístupu „bezpečnostný dizajn“ – predvídať, ako by AI mohla zlyhať alebo spôsobiť škodu, a riešiť tieto riziká hneď na začiatku.
  • Zabezpečiť vysokú kvalitu dát a správu dát: Trénovacie, validačné a testovacie dátové súbory by mali byť relevantné, reprezentatívne a bez chýb či zaujatosti „v čo najväčšej možnej miere“ artificialintelligenceact.eu. Akt zdôrazňuje predchádzanie diskriminačným výsledkom, preto musia poskytovatelia skúmať dáta kvôli nerovnováhe alebo chybám, ktoré by mohli viesť k nespravodlivému správaniu AI digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Napríklad, ak sa vyvíja AI na nábor zamestnancov, trénovacie dáta by mali byť posúdené, či neodrážajú minulé rodové alebo rasové zaujatosti. Správa dát zahŕňa aj sledovanie pôvodu a spracovania dát, aby bolo možné porozumieť a kontrolovať výkon AI.
  • Technická dokumentácia a evidencia: Vývojári musia pripraviť rozsiahlu technickú dokumentáciu preukazujúcu súlad AI systému artificialintelligenceact.eu. Táto dokumentácia by mala popisovať zamýšľané použitie systému, jeho dizajn, architektúru, algoritmy, trénovacie dáta a opatrenia na riadenie rizík artificialintelligenceact.eu. Mala by byť dostatočná na to, aby regulátori mohli posúdiť, ako systém funguje a či spĺňa požiadavky aktu. Okrem toho musia byť AI systémy s vysokým rizikom navrhnuté tak, aby zaznamenávali svoje činnosti – t.j. automaticky zaznamenávali udalosti alebo rozhodnutia, čím sa zabezpečí sledovateľnosť a možnost‘ analýzy po uvedení na trh artificialintelligenceact.eu digital-strategy.ec.europa.eu. Napríklad AI systém prijímajúci rozhodnutia o poskytnutí úveru môže zaznamenávať vstupy a základy každého rozhodnutia. Tieto záznamy môžu pomôcť identifikovať chyby alebo zaujatosti a sú nevyhnutné pri incidente alebo pri vyšetrovaní dodržiavania predpisov.
  • Ľudský dohľad a jasné pokyny: Poskytovatelia musia systém navrhnúť tak, aby umožňoval účinný ľudský dohľad používateľa alebo operátora artificialintelligenceact.eu. Môže to znamenať integráciu funkcií alebo nástrojov, ktoré umožňujú človeku zasiahnuť alebo monitorovať fungovanie AI. Poskytovateľ musí nasadzovateľovi dodať aj podrobné návody na použitie artificialintelligenceact.eu. Tieto návody by mali vysvetľovať, ako správne AI nainštalovať a prevádzkovať, aké sú jej obmedzenia, očakávanú úroveň presnosti, potrebné opatrenia na ľudský dohľad a riziká zneužitia artificialintelligenceact.eu. Cieľom je, aby firma (nasadzovateľ), ktorá AI používa, mala potrebné znalosti a nástroje na jej kontrolu a dohľad. Napríklad výrobca AI diagnostického nástroja pre medicínu musí nemocnici vysvetliť, ako interpretovať výstupy systému a kedy by ich mal skontrolovať ľudský lekár.
  • Výkon, robustnosť a kybernetická bezpečnosť: AI systémy s vysokým rizikom musia dosiahnuť primeranú úroveň presnosti, robustnosti a kybernetickej bezpečnosti pre svoj účel artificialintelligenceact.eu. Poskytovatelia by mali svoje modely testovať a ladiť, aby minimalizovali mieru chýb a zabránili nepredvídateľnému správaniu. Zároveň musia implementovať opatrenia proti manipulácii alebo útokom (kyberbezpečnosti), pretože kompromitovaná AI môže byť nebezpečná (predstavte si hackera, ktorý upraví AI systém riadenia dopravy). V praxi to môže zahŕňať záťažové testy AI v rôznych podmienkach a zabezpečenie, že dokáže zvládnuť variácie vstupov bez kritických zlyhaní artificialintelligenceact.eu. Ak sú známe akékoľvek obmedzenia (napríklad nižšia presnosť pre niektoré demografické skupiny či scenáre), majú byť zdokumentované a odstránené v čo najväčšej miere.
  • Systém manažérstva kvality: Na prepojenie všetkých vyššie uvedených požiadaviek majú poskytovatelia povinnosť zaviesť systém manažérstva kvality artificialintelligenceact.eu. Ide o riadený proces v rámci organizácie na zabezpečenie neustáleho súladu – podobne ako štandardy ISO – ktorý pokrýva všetko od štandardných postupov počas vývoja cez riešenie incidentov až po aktualizácie. Zavádza to dodržiavanie povinností ako súčasť podnikovej kultúry, takže vývoj bezpečnej, zákonnej AI nie je jednorazová aktivita, ale trvalý proces pre poskytovateľa.

Predtým, než možno AI systém s vysokým rizikom uviesť na trh v EÚ, musí poskytovateľ absolvovať posúdenie zhody, aby overil splnenie všetkých týchto požiadaviek. Mnohé takéto systémy podliehajú samohodnoteniu, pri ktorom si poskytovateľ preverí súlad a vydá EÚ vyhlásenie o zhode. Ak je však AI súčasťou regulovaných produktov (napr. zdravotnícke pomôcky alebo automobil), súlad systému musí potvrdiť notifikovaná osoba (nezávislý tretí subjekt), v súlade s príslušnými produktovými predpismi cimplifi.com. Vo všetkých prípadoch budú systémy spĺňajúce požiadavky označené značkou CE, ktorá deklaruje súlad s normami EÚ, a budú zaradené do databázy vysoko rizikových AI systémov na úrovni EÚ cimplifi.com. Táto databáza transparentnosti umožňuje regulátorom aj verejnosti zistiť, aké vysoko rizikové AI systémy sú v prevádzke a kto za ne nesie zodpovednosť.

Povinnosti nasadzovateľov (používateľov): Akt ukladá povinnosti aj používateľom alebo operátorom, ktorí nasadzujú AI systémy s vysokým rizikom v rámci svojej profesijnej činnosti. (Ide o firmy či orgány, ktoré AI používajú, nie o koncových používateľov alebo spotrebiteľov.) Kľúčové povinnosti nasadzovateľov zahŕňajú: riadiť sa pokynmi poskytovateľa na použitie, zabezpečiť ľudský dohľad podľa vyžiadania a sledovať výkonnosť AI počas reálnej prevádzky digital-strategy.ec.europa.eu. Ak nasadzovateľ spozoruje, že AI sa správa neočakávane alebo predstavuje bezpečnostné riziko, má konať (vrátane možného pozastavenia prevádzky) a zároveň o tom informovať poskytovateľa aj kompetentné úrady. Nasadzovatelia musia viesť záznamy pri používaní AI (zaznamenávať jej výstupy a rozhodnutia – nad rámec logovania systému samotného AI) a hlásiť vážne incidenty alebo poruchy úradom artificialintelligenceact.eu. Príkladom je nemocnica využívajúca AI diagnostický nástroj, ktorá by v prípade pochybenia AI vedúceho k ujme pacienta mala incident nahlásiť. Tieto úlohy na strane používateľa zaručujú, že dohľad pokračuje aj po nasadení – AI nie je „vypustená do sveta“, ale stále podlieha ľudskej kontrole s priamou spätnou väzbou vývojárovi a regulátorom.

Za zmienku stojí, že malí používatelia (napr. malá firma) nemajú z týchto povinností výnimku, ak nasadia AI s vysokým rizikom, ale autori aktu rátajú s tým, že dokumentácia a podpora od poskytovateľov umožní splniť požiadavky v praxi. Akt taktiež rozlišuje používateľov od dotknutých osôb – tí druhí (napr. spotrebiteľ odmietnutý na základe AI rozhodnutia) nemajú povinnosti podľa aktu, ale majú práva, akým je napríklad podanie sťažnosti na problematické AI systémy europarl.europa.eu.

Požiadavky na transparentnosť (nad rámec vysokorizikových systémov): Okrem vysokorizikových systémov nariaďuje AI Act špecifické opatrenia transparentnosti pre niektoré AI systémy bez ohľadu na ich rizikovú kategóriu. Dotkli sme sa ich už v časti „obmedzené riziko.“ Konkrétne, každý AI systém, ktorý interaguje s ľuďmi, generuje obsah alebo monitoruje osoby, musí poskytnúť upozornenie/prehlásenie:

  • AI systémy, ktoré interagujú s ľuďmi (napr. chatboty alebo AI asistenti), musia informovať používateľa, že ide o AI. Napríklad online chatbot zákazníckej podpory by mal jasne uvádzať, že je automatizovaný, aby používatelia neboli uvedení do omylu, že komunikujú s človekom digital-strategy.ec.europa.eu.
  • AI, ktorá generuje alebo manipuluje obsahom (obrázky, video, zvuk alebo text) spôsobom, ktorý môže zavádzať, musí zabezpečiť, že obsah je označený ako AI-generovaný digital-strategy.ec.europa.eu. Typickým príkladom sú deepfakes: ak AI vytvorí realistický obraz alebo video niekoho, kto v skutočnosti neurobil alebo nepovedal to, čo je zobrazené, tento AI-generovaný obsah musí byť jasne označený (s výnimkami satiry, umenia či bezpečnostného výskumu, ktoré môžu byť oslobodené). Cieľom je bojovať proti zavádzaniu a dezinformáciám zreteľným pôvodom médií.
  • AI systémy používané na biometrické sledovanie (napríklad kamery s rozpoznávaním tváre) alebo rozpoznávanie emócií musia ľudí o svojej prevádzke informovať, ak je to možné. (Ako už bolo uvedené, mnohé z týchto aplikácií sú úplne zakázané alebo patria medzi vysokorizikové s prísnymi podmienkami).
  • Generatívne AI modely (často nazývané základné modely, ako veľké jazykové modely – napr. ChatGPT) majú špeciálne požiadavky na transparentnosť a poskytovanie informácií. Aj keď generatívny model nie je zaradený ako vysokorizikový, poskytovateľ musí zverejniť určité informácie: napríklad AI-generovaný obsah musí byť označený a poskytovateľ by mal zverejniť súhrn autorsky chránených dát, ktoré boli použité pri trénovaní modelu europarl.europa.eu. Ide o to, aby používatelia a tvorcovia boli informovaní o možných právach duševného vlastníctva v trénovacej množine a pre súlad s legislatívou EÚ o autorských právach europarl.europa.eu. Poskytovatelia generatívnych modelov sú tiež povinní zabraňovať generovaniu nelegálneho obsahu, napríklad implementovaním filtrov či ochranných mechanizmov v modeloch europarl.europa.eu.

Stručne povedané, transparentnosť je nosnou témou AI Act – či už ide o vysokorizikový systém (s detailnou dokumentáciou a informovaním používateľov), alebo chatbot s nízkym rizikom (s jednoduchým upozornením „Som AI“), cieľom je vniesť svetlo do „čiernych skriniek“ umelej inteligencie. To nielen posilňuje používateľov a dotknuté osoby, ale aj uľahčuje zodpovednosť: ak sa niečo pokazí, existuje dokumentačná stopa o tom, čo mala AI robiť a ako bola vyvinutá.

Všeobecné AI (základné modely): Významným prírastkom vo finálnej verzii aktu je sada pravidiel pre všeobecné AI modely (GPAI) – ide o široké AI modely trénované na veľkých dátach (často samo-dohľadom), ktoré sa dajú prispôsobiť širokej škále úloh artificialintelligenceact.eu. Príkladmi sú veľké jazykové modely, generátory obrázkov alebo iné „foundation“ modely, ktoré technologické spoločnosti vyvíjajú a umožňujú ich ďalšie použitie či doladenie. Akt uznáva, že aj keď tieto modely nie sú určené na jeden konkrétny vysokorizikový účel, môžu byť neskôr integrované do vysokorizikových systémov alebo mať systémové dopady. Preto zavádza povinnosti pre poskytovateľov GPAI modelov, aj keď tieto modely ešte nie sú použité v spotrebiteľských produktoch.

Všetci poskytovatelia GPAI modelov musia zverejniť technickú dokumentáciu svojho modelu (popis jeho vývojového procesu a schopností) a poskytnúť pokyny downstream vývojárom, ako model používať v súlade s reguláciou artificialintelligenceact.eu artificialintelligenceact.eu. Musia tiež rešpektovať autorské práva – zabezpečiť, že ich tréningové dáta sú v súlade s právom EÚ o autorských právach – a zverejniť súhrn dát použitých na trénovanie (aspoň na vysokej úrovni prehľad zdrojov) artificialintelligenceact.eu. Tieto požiadavky prinášajú väčšiu transparentnosť do aktuálne nepriehľadného sveta veľkých AI modelov.

Podstatné je, že akt rozlišuje medzi proprietárnymi modelmi a tými, ktoré sú vydané pod open source licenciami. Poskytovatelia open-source GPAI modelov (kde sú váhy modelu a kód voľne dostupné) majú miernejšie povinnosti: musia splniť iba kroky týkajúce sa autorských práv a transparentnosti tréningových dát, nie plnú technickú dokumentáciu ani pokyny na použitie – pokiaľ ich model nepredstavuje „systémové riziko“ artificialintelligenceact.eu. Táto výnimka má zabrániť bráneniu otvorenej inovácie a výskumu. Avšak, ak je open model extrémne schopný a môže mať veľký dopad, kontrolám sa nevyhne len preto, že je open source.

Akt definuje „GPAI modely so systémovým rizikom“ ako tie veľmi pokročilé modely, ktoré môžu mať ďalekosiahle dôsledky na spoločnosť. Jedným z kritérií je, ak jeho trénovanie vyžadovalo viac ako 10^25 výpočtových operácií (FLOPs) – ide o meradlo na identifikáciu najnáročnejších, najsilnejších modelov artificialintelligenceact.eu. Poskytovatelia takýchto vysokodopadových modelov musia vykonávať dodatočné hodnotenia a testovanie (vrátane adversariálneho testovania na hľadanie zraniteľností) a aktívne zmierňovať akékoľvek zistené systémové riziká artificialintelligenceact.eu. Musia tiež hlásiť závažné incidenty týkajúce sa ich modelu Európskemu AI úradu a národným orgánom a zabezpečiť silnú kybernetickú bezpečnosť modelu a infraštruktúry artificialintelligenceact.eu. Tieto opatrenia sú reakciou na obavy z pokročilých AI (ako GPT-4 a novšie), ktoré môžu potenciálne spôsobiť rozsiahle škody (napr. umožniť nové formy dezinformácií, kyberútoky atď.). Akt v podstate hovorí: ak budujete najpokročilejšiu všeobecnú AI, musíte byť mimoriadne opatrní a spolupracovať s regulátormi, aby ste ju držali pod kontrolou europarl.europa.eu artificialintelligenceact.eu.

Na podporu spolupráce akt stanovuje, že dodržiavanie kódexov správania alebo pripravovaných harmonizovaných noriem môže byť spôsobom, ako poskytovatelia GPAI plnia svoje povinnosti artificialintelligenceact.eu. EÚ pritom podporuje vytvorenie Kódexu postupov pre AI, ktorým sa má (zatiaľ dobrovoľne) riadiť priemysel digital-strategy.ec.europa.eu. Úrad pre umelú inteligenciu vedie tento proces s cieľom v detailoch ukázať, ako môžu vývojári základných modelov v praxi plniť požiadavky digital-strategy.ec.europa.eu. Kódex je dobrovoľný, no môže slúžiť ako „bezpečný prístav“ – ak ho spoločnosť dodržiava, regulátori môžu predpokladať, že je v súlade so zákonom.

Celkovo povinnosti podľa AI Act pokrývajú celý životný cyklus AI: od návrhu (hodnotenie rizík, kontrola dát) cez vývoj (dokumentácia, testovanie), nasadenie (transparentnosť voči používateľom, dohľad) až po popredajnú fázu (monitorovanie, hlásenie incidentov). Súlad bude vyžadovať multidisciplinárny prístup – vývojári AI budú potrebovať nielen dátových vedcov a inžinierov, ale aj právnikov, manažérov rizík a etikov, ktorí zaistia splnenie všetkých požiadaviek. Ďalej sa pozrieme, ako bude vynucovanie prebiehať a čo sa stane v prípade, že firmy nesplnia svoje povinnosti.

Mechanizmy vynucovania, kontrolné orgány a sankcie

Na dohľad nad touto rozsiahlo reguláciou zriaďuje AI Act EÚ viacúrovňovú štruktúru správy a vynucovania. Tá zahŕňa národné orgány v každom členskom štáte, nový centrálny Európsky úrad pre AI a koordináciu prostredníctvom AI rady. Vynucovací prístup je čiastočne inšpirovaný skúsenosťami EÚ s režimami bezpečnosti produktov a ochrany údajov (napr. modelom GDPR s národnými regulátormi a európskou radou).

Národné príslušné orgány: Každý členský štát EÚ musí určiť jeden alebo viacero národných orgánov zodpovedných za dohľad nad činnosťami v oblasti AI (často nazývané orgány trhového dozoru pre AI) orrick.com. Tieto orgány budú riešiť každodenné kontroly súladu – napríklad overovať, či vysokorizikový AI produkt poskytovateľa na trhu spĺňa požiadavky, alebo prešetrovať sťažnosti verejnosti. Majú právomoci podobné existujúcej legislatíve o bezpečnosti výrobkov (Nariadenie (EÚ) 2019/1020): môžu požadovať informácie od poskytovateľov, vykonávať inšpekcie, a dokonca nariadiť stiahnutie nesúladných AI systémov z trhu orrick.com. Tiež sledujú trh kvôli AI systémom, ktoré by mohli obchádzať pravidlá alebo predstavovať nepredvídané riziká. Ak je AI systém vyhodnotený ako nesúladný alebo nebezpečný, národné orgány môžu udeliť pokuty alebo vyžadovať jeho stiahnutie/odvolanie. Každá krajina pravdepodobne zverí túto úlohu existujúcemu regulátorovi alebo vytvorí nový (niektorí navrhli, že úradní ochrany údajov by mohol prebrať AI, alebo sektoroví regulátori ako agentúry pre zdravotnícke pomôcky pri medicínskych AI, atď., aby využili odbornosť). Do augusta 2025 musia členské štáty určiť a uviesť do prevádzky svoje AI regulačné orgány artificialintelligenceact.eu a do roku 2026 musí každá krajina tiež zriadiť aspoň jeden Regulačný sandbox pre AI (kontrolované prostredie na testovanie inovatívnej AI pod dohľadom) artificialintelligenceact.eu. Európsky AI úrad: Na úrovni EÚ vznikol nový subjekt známy ako AI úrad zriadený v rámci Európskej komisie (konkrétne pod DG CNECT) artificialintelligenceact.eu. AI úrad je centrálny regulátor so zameraním na AI všeobecného určenia a cezhraničné otázky. Podľa nariadenia má AI úrad výlučnú právomoc vymáhania pravidiel pre poskytovateľov GPAI modelov orrick.com. Znamená to, že ak OpenAI, Google alebo akákoľvek firma poskytuje veľký AI model používaný v celej Európe, AI úrad bude hlavným vymáhačom zabezpečujúcim, že títo poskytovatelia plnia svoje povinnosti (technická dokumentácia, zmierňovanie rizík, atď.). AI úrad môže požadovať informácie a dokumentáciu priamo od poskytovateľov základných modelov a vyžadovať nápravné opatrenia, ak nie sú v súlade orrick.com. Dohliada tiež na prípady, kde je tá istá firma poskytovateľom základného modelu aj prevádzkovateľom vysokorizikového systému na ňom založeného – aby sa predišlo medzerám medzi národným a EÚ dohľadom orrick.com. Popri vymáhaní hrá AI úrad širokú úlohu pri monitorovaní trendov v AI a systémových rizík. Má za úlohu analyzovať vznikajúce vysokorizikové či nepredvídané AI otázky (najmä týkajúce sa GPAI) a môže vykonávať hodnotenia silných modelov artificialintelligenceact.eu. Úrad bude zamestnávať odborný personál (Komisia naň už prijíma AI expertov artificialintelligenceact.eu) a spolupracovať s nezávislým Vedeckým panelom AI expertov, ktorí radia vo veciach technickej povahy artificialintelligenceact.eu. Významne AI úrad vyvíja dobrovoľné kódexy správania a usmernenia pre priemysel – pôsobí ako zdroj pomoci pre vývojárov AI pri dosahovaní súladu (najmä užitočné pre startupy a MSP) artificialintelligenceact.eu. Koordinuje s členskými štátmi za účelom jednotného uplatňovania pravidiel a dokonca pomáha pri spoločných vyšetrovaniach ak sa AI problém týka viacerých krajín artificialintelligenceact.eu artificialintelligenceact.eu. V podstate je AI úrad pokusom EÚ o centralizovaný AI regulátor, ktorý dopĺňa národné autority – podobne, ako Európsky výbor pre ochranu údajov funguje pri GDPR, avšak s priamymi právomocami v určitých oblastiach. AI Rada: Nariadenie zriaďuje novú Európsku radu pre umelú inteligenciu, ktorú tvoria zástupcovia AI orgánov všetkých členských štátov (a európskeho dozorného úradníka pre ochranu údajov a AI úradu ako pozorovateľov) artificialintelligenceact.eu. Úlohou Rady je zabezpečiť jednotné vykonávanie v celej Európe – budú zdieľať najlepšie postupy, prípadne vydávať stanoviská či odporúčania a koordinovať stratégie presadzovania pravidiel pri cezhraničných prípadoch artificialintelligenceact.eu. AI úrad vystupuje ako sekretariát tejto Rady, organizuje stretnutia a pomáha s prípravou dokumentov artificialintelligenceact.eu. Rada môže napríklad pomáhať s vývojom štandardov alebo diskutovať o potrebných aktualizáciách príloh nariadenia v priebehu času. Ide o medzivládne fórum na udržiavanie vzájomnej koordinácie a predchádzanie rozdielnemu vymáhaniu, ktoré by mohlo rozkúskovať jednotný trh EÚ pre AI. Sankcie za nedodržanie predpisov: Nariadenie AI zavádza prísne pokuty za porušenia, pričom kopíruje odstrašujúci prístup GDPR. Existujú tri úrovne správnych pokút:
  • Za najzávažnejšie porušenia – najmä nasadenie zakázaných AI praktík (neprípustné použitia, ktoré sú zakázané) – môžu byť pokuty až do 35 miliónov € alebo 7 % celosvetového ročného obratu, podľa toho, ktorá suma je vyššia orrick.com. Ide o veľmi vysoký trestný strop (výrazne vyšší než GDPR s maximom 4 % obratu). Signalizuje to, akú vážnosť prikladá EÚ napríklad vybudovaniu tajného systému sociálneho skórovania alebo prevádzkovaniu nezákonného biometrického dohľadu – tieto porušenia majú váhu najzávažnejších firemných priestupkov.
  • Za iné porušenia požiadaviek nariadenia (napr. nesplnenie povinností pri vysokorizikovej AI, nezaregistrovanie systému, neimplementovanie opatrení transparentnosti), maximálna pokuta je 15 miliónov € alebo 3 % globálneho obratu orrick.com. Sem patria bežné pochybenia: napríklad firma nevykoná posúdenie zhody alebo poskytovateľ zatají informácie regulátorom – tieto prípady spadajú sem.
  • Za dodanie nesprávnych, zavádzajúcich alebo neúplných informácií regulátorom (napríklad počas vyšetrovania alebo ako reakciu na požiadavku súladu), pokuta môže dosiahnuť až 7,5 milióna € alebo 1 % obratu orrick.com. Táto najnižšia úroveň sa týka najmä marenia vyšetrovania či nespolupráce s orgánmi.
Dôležité je, že zákon uvádza, že MSP (malé a stredné podniky) majú čeliť skôr nižšej hranici týchto rozpätí pokút, zatiaľ čo veľké firmy môžu byť postihnuté vyššími pokutami orrick.com. Inými slovami, sumy 35M€/7 % či 15M€/3 % sú maximá; regulátori majú právomoc zvážiť veľkosť a finančné možnosti subjektu. MSP tak môže dostať miliónovú pokutu namiesto percenta z obratu, aby sa predišlo neprimeraným dopadom, zatiaľ čo veľké technologické firmy môžu čeliť pokutám podľa percent z obratu, ak má zvýšiť ich odstrašujúci účinok orrick.com. Tieto ustanovenia o sankciách budú vymáhateľné od 2. augusta 2025 pre väčšinu pravidiel orrick.com. (Týmto dátumom začína platiť kapitola o riadení a články o sankciách). Pre nové povinnosti týkajúce sa AI modelov všeobecného určenia však sankcie začnú platiť až o rok neskôr, 2. augusta 2026, v súlade s termínom, kedy sa požiadavky na základné modely stanú povinnými orrick.com. Tento posun poskytuje poskytovateľom základných modelov čas na prípravu.Pokiaľ ide o postupy a záruky: spoločnosti budú mať práva, ako napríklad právo byť vypočuté pred udelením sankcie a povinnosť zachovávať dôvernosť citlivých informácií poskytnutých regulátorom je stanovená orrick.com. Akt tiež poznamenáva, že na rozdiel od niektorých iných európskych právnych predpisov Komisia (prostredníctvom AI Office) nemá rozsiahle právomoci na vykonávanie ranných razií alebo vypočúvanie svedkov z vlastnej iniciatívy – okrem prípadu, keď dočasne preberie úlohu národného orgánu orrick.com. Toto odzrkadľuje určité obmedzenia, ktoré majú pravdepodobne upokojiť obavy z prílišného zasahovania. Výkonná úloha AI Office: Európska komisia prostredníctvom AI Office môže sama iniciovať výkonne konania v určitých prípadoch, najmä týkajúcich sa AI so všeobecným použitím. Ide o nový mechanizmus presadzovania – historicky Komisia priamo nevymáhala pravidlá pre produkty (jej úloha bola viac dohľadová a koordinačná), s výnimkou práva hospodárskej súťaže. S AI Aktom získava Komisia praktickejšiu súpravu nástrojov na výkon presadzovania. AI Office môže vyšetrovať poskytovateľa základného (foundation) AI modelu, vyžiadať si rozsiahlu dokumentáciu (podobne ako v protimonopolných vyšetrovaniach) orrick.com, a dokonca vykonávať simulované kybernetické útoky alebo hodnotenia na AI modeloch na testovanie ich bezpečnosti artificialintelligenceact.eu. Spoločnosti pod takýmto vyšetrovaním môžu zažiť niečo podobné ako protimonopolnú kontrolu, čo podľa analytikov zo spoločnosti Orrick môže byť náročné z pohľadu požiadaviek na tisícky dokumentov, vrátane interných návrhov orrick.com. Skúsenosti Komisie s veľkými vyšetrovaním naznačujú, že do veľkých AI prípadov zapojí významné kapacity. Zatiaľ čo to zvyšuje nároky na súlad s legislatívou pre AI vývojárov, zároveň to dokazuje, že EÚ to s centrálnym presadzovaním pravidiel pre základné AI modely, ktoré presahujú hranice, myslí vážne. Dohľad nad vysokorizikovou AI: Pri tradičnej vysokorizikovej AI (napríklad bankový systém hodnotenia úveruschopnosti alebo mestské využitie AI v polícii) zostávajú hlavnými presadzovateľmi národné autority. No AI Office a AI Board im budú asistovať, najmä ak vzniknú problémy, ktoré ovplyvňujú viacero krajín. Akt umožňuje spoločné vyšetrovania, kde viacerí národní regulátori spolupracujú (s podporou AI Office), ak riziká AI systému presahujú hranice štátov artificialintelligenceact.eu. To zabraňuje situácii, keď je celoeurópska AI riešená izolovane jednou krajinou, zatiaľ čo ostatné ostávajú neinformované. Napokon je zabudovaný aj proces odvolania a revízie: spoločnosti sa môžu odvolať voči rozhodnutiam o vynútení prostredníctvom národných súdov (alebo v prípade rozhodnutí Komisie napokon aj na súdoch EÚ) a samotný Akt bude pravidelne prehodnocovaný. Do roku 2028 musí Komisia zhodnotiť, ako dobre AI Office a nový systém fungujú artificialintelligenceact.eu a každých pár rokov prehodnotí, či je potrebné aktualizovať kategórie rizika alebo zoznamy (príloha III atď.) artificialintelligenceact.eu. Táto adaptívna správa je vzhľadom na rýchle tempo AI technológií kľúčová – EÚ plánuje pravidlá v prípade potreby priebežne vylepšovať. Zhrnuté, AI Akt bude presadzovaný sieťou regulátorov, pričom európsky AI Office bude ústredným bodom pre usmernenia, konzistentnosť a priamy dohľad nad základnými modelmi. Sankcie sú výrazné – na papieri možno najvyššie spomedzi všetkých technologických regulácií, čo znamená, že nedodržiavanie nie je reálnou možnosťou. Organizácie by si mali vstavanú súlad do AI projektov budovať od samého začiatku, než riskovať tieto pokuty alebo nútené zastavenie svojich AI systémov.

Dopady na konkrétne sektory a použitia

Dopady AI Aktu sa líšia podľa odvetví, keďže zákon zameriava určité sektory ako vysokorizikové. Tu zhrnieme, ako sú ovplyvnené kľúčové odvetvia – zdravotníctvo, financie, presadzovanie práva a vzdelávanie:
  • Zdravotníctvo a zdravotnícke pomôcky: AI má v medicíne veľký potenciál (od diagnostiky chorôb po robotickú asistovanú chirurgiu), pod Aktom však tieto využitia často patria medzi vysokorizikové. Každá AI súčasť regulovaného zdravotníckeho zariadenia bude automaticky považovaná za vysokorizikovú emergobyul.com. Napríklad AI nástroj na röntgenovú analýzu snímok alebo algoritmus navrhujúci liečbu bude musieť spĺňať požiadavky Aktu, okrem existujúcich zdravotníckych predpisov. Poskytovatelia takejto AI budú musieť absolvovať prísne hodnotenia zhody (pravdepodobne naviazané na postupy CE označovania zdravotníckych pomôcok). Musia zabezpečiť klinickú kvalitu a bezpečnosť, čo korešponduje s požiadavkami Aktu na presnosť a riadenie rizík. Pacienti a zdravotníci budú z týchto opatrení profitovať – AI bude spoľahlivejšia a jej limity budú transparentné. Vývojári medicínskej AI však čelia zvýšeným nákladom na výskum a vývoj a byrokracii pri dokazovaní súladu. Dlhodobo tak možno očakávať spomalené uvádzanie AI inovácií do zdravotníctva v EÚ, kým neprejdú regulačným preskúmaním goodwinlaw.com. Naopak, Akt podporuje experimentovanie cez sandboxy: nemocnice, startupy a regulátori môžu spolupracovať na kontrolovaných testoch AI systémov (napr. AI diagnostický asistent), aby pred širším nasadením získali dôkazy o bezpečnosti a účinnosti. Do roku 2026 musí mať každý členský štát aspoň jeden AI regulačný sandbox funkčný v oblastiach vrátane zdravotníctva artificialintelligenceact.eu. Zhrnuté, zdravotnícka AI v Európe bude pravdepodobne bezpečnejšia a štandardizovanejšia, výrobcovia však musia starostlivo zvládnuť súlad, aby predišli meškaniu pri uvádzaní život zachraňujúcich inovácií na trh.
  • Financie a poisťovníctvo: Akt jednoznačne zaradil množstvo AI vo finančných službách medzi vysokorizikové. Výrazne, AI systémy na posúdenie úveruschopnosti – napr. algoritmy rozhodujúce, či dostanete úver alebo s akým úrokom – sú vysokorizikové, keďže ovplyvňujú prístup k základným službám digital-strategy.ec.europa.eu. Banky a fintech firmy využívajúce AI na schvaľovanie úverov, scoring alebo oceňovanie rizika poistenia musia dokazovať, že tieto systémy sú nediskriminačné, vysvetliteľné a auditované. Budú musieť viesť dokumentáciu o trénovaní AI (aby napríklad dokázali, že algoritmus nediskriminuje určité etnické skupiny alebo lokality, čo je známy problém niektorých modelov). Zákazníci budú profitovať aj z transparentnosti: Akt síce priamo negarantuje jednotlivcom právo na vysvetlenie ako GDPR, no požiadavka na jasné informácie znamená, že veritelia by mali informovať uchádzača, či AI rozhoduje v procese a možno aj ako všeobecne funguje digital-strategy.ec.europa.eu. Ďalším finančným príkladom je AI na odhaľovanie podvodov a boj s praním špinavých peňazí, čo môže spadať pod vysoké riziko (ak ovplyvňuje základné práva) alebo len povinnosť transparentnosti pri obmedzenom riziku. Finančné spoločnosti budú potrebovať silné riadiace procesy pre svoju AI – napr. rozšírené rámce modelového riadenia rizika podľa AI Aktu. Spočiatku môžu vzniknúť náklady na súlad, napr. nutnosť najímať konzultantov na testovanie zaujatosti modelov alebo rozšíriť dokumentáciu, výsledkom by však mala byť spravodlivejšia a dôveryhodnejšia AI vo finančníctve. Klienti môžu pozorovať zníženie predsudkov v úverových rozhodnutiach a istotu, že na AI dohliadajú regulátori. Poisťovne využívajúce AI na underwriting (modely hodnotenia rizika a stanovovania cien v zdravotnom či životnom poistení) sú takisto považované za vysokorizikové artificialintelligenceact.eu a musia predchádzať nespravodlivej diskriminácii (napr. aby AI bezdôvodne nezvyšovala poistné na základe chránených zdrav. charakteristík). Celkovo Akt smeruje finančnú AI k väčšej transparentnosti a zodpovednosti, čo zrejme posilní dôveru zákazníkov v AI produkty počas času.
  • Presadzovanie práva a verejná bezpečnosť: V tejto oblasti je Akt veľmi obozretný vzhľadom na vysoké zásahy do občianskych slobôd. Viacero AI aplikácií pre presadzovanie práva je výslovne zakázaných ako neprijateľné: napríklad AI pre “sociálne skórovanie” alebo predikciu kriminality profilovaním-osôb je zakázané artificialintelligenceact.eu artificialintelligenceact.eu. Rovnako, často diskutované rozpoznávanie tvárí v reálnom čase na verejných miestach políciou je zakázané, okrem extrémnych naliehavých situácií (a aj vtedy len s prísnym súhlasom) europarl.europa.eu. Znamená to, že európska polícia nemôže plošne nasadzovať živé rozpoznávanie tvárí cez CCTV – na rozdiel od niektorých iných častí sveta – len vo veľmi úzkych prípadoch vážnych ohrození a so súdnym povolením. Iné policajné AI nástroje patria pod vysoké riziko, čiže sú povolené s dohľadom. Napríklad AI, ktorá analyzuje minulé trestné činy na rozdeľovanie policajných síl, alebo hodnotí spoľahlivosť dôkazov/ profilov podozrivých, je vysokoriziková digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policajné či pohraničné orgány musia robiť hodnotenie dopadov na základné práva a zaistiť, že kľúčové rozhodnutia robí stále človek, nie len AI. Vznikne EU databáza všetkých vysokorizikových AI systémov v presadzovaní práva, čo zvýši transparentnosť a umožní verejný prehľad (aspoň do určitej miery, niektoré detaily môžu byť dôverné). Orgánom môže Akt priniesť aj viac byrokracie (dokumentácia, schvaľovanie notifikovanou osobou a pod.), čo môže spomaliť adopciu AI. Opatrenia však slúžia na predchádzanie zneužitiam – napríklad situáciám, keď by čierna skrinka algoritmu určovala tresty alebo označovala osoby na hraniciach bez možnosti odvolania. Ďalší konkrétny dopad je na analýzu emócií na pracovisku či v polícii: AI tvrdiaca, že rozpozná emócie pri výsluchoch, pohovoroch, školských skúškach a pod., je zakázaná pre jej invazívnosť a nespoľahlivosť digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Takže presadzovanie práva v EÚ sa pravdepodobne sústredí na AI asistenciu s analýzou dát a rutinnými úlohami pod dohľadom človeka a vzdáva sa dystopickejších AI praktík, ktoré inde hrozia. Akt sa tak snaží nájsť rovnováhu: umožniť AI pomáhať pri odhaľovaní zločinov a verejnej bezpečnosti, ale nie na úkor základných práv a slobôd.
  • Vzdelávanie a zamestnanie: AI systémy využívané vo vzdelávaní, napríklad softvér na hodnotenie skúšok alebo odporúčanie priradenia študentov, sú vysokorizikové, keďže môžu ovplyvniť budúcnosť študenta digital-strategy.ec.europa.eu. Školy či ed-tech firmy nasadzujúce AI na hodnotenie esejí alebo detekciu podvádzania musia zaistiť presnosť a nezaujatý chod týchto nástrojov. POchybné AI, ktorá by zle hodnotila niektoré skupiny študentov alebo zlyhala počas skúšky, by mala život meniace následky – preto je tu vysoké riziko. Prakticky to znamená, že ministerstvá školstva a univerzity budú musieť AI dodávateľov dôslednejšie preverovať a viesť dokumentáciu o algoritmoch ovplyvňujúcich prijímanie či hodnotenie. Študenti musia byť informovaní, keď sa používa AI (transparentnosť) a môžu sa odvolať – Akt ich v tom podporuje povinnosťami na transparentnosť a ľudský dohľad. V zamestnaní sa za vysokorizikové považuje AI využívaná na nábor alebo HR management (triedenie životopisov, hodnotenie uchádzačov, monitorovanie výkonnosti) digital-strategy.ec.europa.eu. Firmy používajúce AI na hiring musia dbať, aby ich nástroje boli navrhnuté a testované voči férovosti (aby napríklad nedochádzalo k rodovej diskriminácii). Akt môže priniesť otras v odvetví rekruiting technológií: niektoré platformy možno budú potrebovať výrazné úpravy či dokumentáciu, inak ich využitie v EÚ nebude legálne, a firmy sa prípadne budú vracať k väčšiemu zapojeniu ľudí, ak ich AI nesplní štandardy. Minimálne budú kandidáti v EÚ dostávať upozornenia typu „pri spracúvaní vašej žiadosti môže byť použitá AI“ a môžu očakávať vysvetlenia rozhodnutí – v duchu transparentnosti Aktu. Pozitívum je väčšia férovosť a zodpovednosť pri prijímaní – AI nebude záhadný strážca brány, ale nástroj pod dohľadom. Výzvou pre HR oddelenia je zaviesť tieto kontroly bez zbytočného spomalenia alebo komplikovania hľadania zamestnancov. Opäť môžu pomôcť regulačné sandboxy: HR startup môže testovať svoj AI hodnotiací nástroj v sandboxe s regulátorom a získať spätnú väzbu, ako splniť požiadavky na férovosť pred nasadením na trh.
V iných sektoroch, ktoré Akt výslovne nemenoval, závisí vplyv od spôsobu použitia. Napríklad kritická infraštruktúra (energetické siete, riadenie dopravy) využívajúca AI na optimalizáciu prevádzky bude vysokoriziková, ak zlyhanie predstavuje bezpečnostné riziko artificialintelligenceact.eu. Teda energetické a dopravné spoločnosti budú musieť certifikovať svoje AI riadiace systémy. Marketing a sociálne siete (napr. algoritmy pre cielenie reklamy alebo odporúčaný obsah) spadajú prevažne pod minimálne alebo obmedzené riziko – nie sú priamo predmetom AI Aktu, aj keď im môžu platiť iné právne predpisy (napr. DSA atď.).Jedným z pozoruhodných sektorov sú spotrebiteľské produkty a robotika – ak je AI integrovaná do spotrebiteľských produktov (hračky, spotrebiče, vozidlá), začínajú platiť zákony o bezpečnosti produktov. Napríklad AI-hračka, ktorá interaguje s deťmi, môže predstavovať vysoké riziko, najmä ak by mohla nebezpečne ovplyvňovať správanie detí europarl.europa.eu. Zákon konkrétne zakazuje hračky, ktoré využívajú hlasovú AI na povzbudzovanie škodlivého správania u detí europarl.europa.eu. Hračkárske a herné spoločnosti využívajúce AI teda musia veľmi opatrne pristupovať k obsahu aj funkčnosti svojich produktov. Všeobecne platí, že odvetvia, ktoré sa zaoberajú ľudskými životmi, možnosťami alebo právami, čelia najvýznamnejším novým pravidlám. Tieto sektory pravdepodobne zažijú kultúrny posun smerom k „etike a dodržiavaniu AI” – s úlohami ako AI compliance officer alebo etický posudzovateľ, ktoré sa stanú bežnými. Hoci môže dôjsť k úvodnému spomaleniu, keď sa systémy budú auditovať a vylepšovať, z dlhodobého hľadiska sa môže objaviť vyššia verejná dôvera v AI v týchto oblastiach. Napríklad ak rodičia budú dôverovať tomu, že AI hodnotiaca ich dieťa je dobre monitorovaná z hľadiska spravodlivosti, môžu byť voči AI v školstve otvorenejší.

Dopad na podniky: MSP, startupy a globálne spoločnosti

Zákon EÚ o umelej inteligencii ovplyvní organizácie všetkých veľkostí, od agilných startupov po nadnárodné technologické giganty, najmä každého, kto ponúka AI produkty alebo služby v Európe. Náklady a povinnosti spojené so súladom nebudú zanedbateľné, no zákon obsahuje opatrenia na pomoc alebo úpravu pre menšie podniky a jeho exteritoriálny dosah znamená, že aj globálne firmy mimo EÚ by mali venovať pozornosť. Malé a stredné podniky (MSP): MSP a startupy sú často hlavnými inovátormi v oblasti AI – odhaduje sa, že až 75 % inovácií v AI pochádza zo startupov seniorexecutive.com. EÚ dbala na to, aby týchto hráčov nezahltila povinnosťami, preto zákon obsahuje MSP-priateľské ustanovenia. Ako už bolo spomenuté, pokuty za porušenia sú škálované tak, aby boli v absolútnej sume nižšie pre MSP orrick.com, čím sa zabraňuje likvidačným sankciám pre malé firmy. Zákon navyše nariaďuje, aby boli pre MSP regulačné „pieskoviská” k dispozícii zadarmo a s prioritným prístupom thebarristergroup.co.uk. Tieto pieskoviská (v prevádzke do roku 2026 v každom členskom štáte) umožnia startupom testovať AI systémy pod dohľadom a získať spätnú väzbu ohľadom compliance bez rizika pokút počas fázy testovania. Ide o príležitosť vyvíjať svoje produkty v spolupráci s regulátormi – compliance sa tak môže stať skôr spoločným vývojom než prekážkou. Európska komisia navyše spustila iniciatívu „AI Pakt” a ďalšie podporné programy spolu s prijatím zákona digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI Pakt je dobrovoľný program, ktorý vyzýva firmy, aby sa zaviazali k včasnému dodržiavaniu pravidiel a zdieľaniu osvedčených postupov s dôrazom na pomoc najmä menším hráčom. Zákon tiež stanovuje, že AI úrad má poskytovať návody, vzory a zdroje pre MSP artificialintelligenceact.eu. Môžeme teda predpokladať vznik vzorových plánov riadenia rizík alebo kontrolných zoznamov dokumentácie, ktoré využije aj 10-členný startup bez potreby najímať celý právny tím. Napriek týmto podporným mechanizmom si mnohé startupy stále robia starosti s ťažkým bremenom compliance. Požiadavky (ako už bolo podrobne opísané), napríklad systémy manažérstva kvality alebo posudzovanie zhody, môžu byť skľučujúce pre malú firmu s obmedzeným počtom pracovníkov. Objavujú sa obavy, že inovácie by sa mohli spomaliť alebo geograficky presunúť: ak bude príliš zložité uviesť AI produkt na európsky trh, startup môže najskôr spustiť službu inde (napr. v USA) alebo investori uprednostnia regióny s menšími reguláciami seniorexecutive.com seniorexecutive.com. Ako to vyjadril jeden CEO technologickej firmy, jasné pravidlá prinášajú dôveru, no príliš reštriktívne pravidlá môžu „odsunúť výborný, hodnotný výskum inam.” seniorexecutive.com. Niektorí zakladatelia startupov vnímajú zákon ako príliš široký a zaťažujúci a obávajú sa, že začínajúce firmy budú mať problém zvládnuť náklady na compliance, čo ich donúti presunúť sa mimo EÚ seniorexecutive.com. Na zmiernenie týchto obáv európski tvorcovia politík uviedli, že normy a postupy pre compliance budú maximálne zjednodušené. Môžu napríklad vzniknúť štandardizované moduly posudzovania zhody, ktoré bude môcť menší poskytovateľ jednoducho nasledovať, prípadne certifikačné služby, kde si náklady rozdelí viacero MSP. Objavila sa aj myšlienka „compliance grantov” či dotácií, teda financovania nákladov na splnenie nových pravidiel seniorexecutive.com. Ak by takéto stimuly vznikli (či už na úrovni EÚ alebo jednotlivých štátov), výrazne by zmiernili záťaž. V každom prípade by MSP mali začať mapovaním svojich AI systémov do kategórií rizika a zamerať sa najmä na tie s vysokým rizikom. Mnohé AI startupy zistia, že ich produkt patrí do minimálneho alebo obmedzeného rizika, takže im bude stačiť pridať len niektorý povinný údaj a nebudú potrebovať celý compliance program. Pre tých, ktorí sú vo vysoko rizikových oblastiach (napríklad medtech AI alebo nástroje pre HR), bude kľúčové už od začiatku spolupracovať s regulátormi (cez pieskoviská alebo konzultácie). Zákon výslovne podporuje „proinovačný prístup” – teda regulátori majú zohľadniť potreby menších aktérov a v počiatočnej fáze neuplatňovať prísny represívny prístup seniorexecutive.com. V praxi pravdepodobne vznikne akési prechodné obdobie, kedy firmy skutočne sa snažiace o compliance získajú pomoc a návod, skôr než pokuty. Globálne a ne-EÚ spoločnosti: Rovnako ako GDPR, aj zákon o AI má exteritoriálny dosah. Ak je AI systém umiestnený na trhu EÚ alebo jeho výstupy sa používajú v EÚ, pravidlá platia bez ohľadu na sídlo poskytovateľa artificialintelligenceact.eu. To znamená, že americké, ázijské či iné nadnárodné firmy nemôžu AI zákon ignorovať, ak majú zákazníkov alebo užívateľov v Európe. Spoločnosť zo Silicon Valley, ktorá predáva AI nástroj na nábor zamestnancov európskym klientom, musí zabezpečiť, aby tento nástroj spĺňal európske požiadavky (inak ho jej klienti v EÚ legálne používať nebudú môcť). Pre veľké technologické firmy (Google, Microsoft, OpenAI atď.) už zákon o AI ovplyvňuje ich správanie. Ešte pred prijatím zákona začali niektoré firmy ponúkať väčšiu transparentnosť alebo možnosti kontroly v AI produktoch v očakávaní regulácie. Napríklad poskytovatelia generatívnej AI pracujú na nástrojoch na označovanie AI výstupov a viaceré už zverejňujú info o tréningových dátach či limitoch svojich modelov v reakcii na tlak EÚ. Existuje tiež názor, že splnenie požiadaviek AI zákona sa môže stať konkurenčnou výhodou či známkou kvality – podobne ako produkty „GDPR-kompatibilné” sú vnímané ako priateľské k ochrane súkromia, produkty „EU AI Act-kompatibilné” môžu byť globálne považované za dôveryhodné. Globálne firmy však musia vyvažovať rôzne jurisdikcie. Pravidlá EÚ nemusia byť totožné napríklad s tými, ktoré pripravuje USA. Niektoré štáty USA alebo federálne inštitúcie môžu vyžadovať iné vykazovanie či byť v rozpore s pravidlami EÚ. Medzinárodné firmy preto môžu štandardizovať sa podľa najprísnejšieho režimu (často EÚ), aby zachovali jednotný globálny pohľad – presne takto sa postupovalo pri GDPR, kde firmy mnohé práva voči osobných údajom i služby rozšírili celosvetovo. Je možné, že AI poskytovatelia zavedú európske postupy transparentnosti (napr. označovanie AI výstupov) globálne kvôli konzistencii. Zákon by tak fakticky mohol exportovať „normy dôveryhodnej AI” EÚ do ďalších častí sveta, ak veľké firmy urobia zmeny vo všetkých svojich verziách produktov. Napriek tomu hrozí fragmentácia: ak sa iné regióny vydajú inou cestou, globálne firmy možno budú musieť udržiavať oddelené verzie či funkcie AI produktov pre rôzne regióny. Napríklad AI aplikácia môže mať špeciálny „režim EÚ” s viac ochrannými opatreniami. Dlhodobo je to však neefektívne, preto sa očakáva tlak na medzinárodné zosúladenie pravidiel (viac v ďalšej sekcii). Z pohľadu firemnej stratégie veľké firmy pravdepodobne zriadia oddelené AI compliance tímy (ak ich ešte nemajú), ktoré budú auditovať AI systémy podľa ustanovení zákona. Pravdepodobne vznikne aj ekosystém nezávislých AI auditných firiem poskytujúcich certifikáciu – podobne ako audity v oblasti kybernetickej bezpečnosti – ktoré budú využívať veľké i stredne veľké firmy ešte predtým, ako ich kontaktuje oficiálny regulátor.

Ďalším dôsledkom je v oblasti investícií: VC investori aj podnikové firmy budú vykonávať due diligence týkajúce sa súladu so zákonom o AI. Startupy sa môžu stretnúť s otázkami typu „Máte vypracované rizikové hodnotenie podľa AI Act? Ste v pieskovisku alebo máte plán na označenie CE, ak je to potrebné?“ – podobne ako sa po GDPR stala súčasťou investičného checklistu aj compliance v oblasti ochrany osobných údajov. Firmy, ktoré dokážu preukázať súlad, môžu ľahšie získať partnerstvá a predaje v Európe, zatiaľ čo tie, ktoré nedokážu preukázať compliance, môžu byť vnímané ako rizikovejšia stávka.

V skratke, pre malé a stredné podniky a startupy je tento zákon dvojsečnou zbraňou – prináša jasnosť a možno aj konkurenčnú výhodu pre „zodpovedné AI“ riešenia, ale zároveň zvyšuje nároky na vstup do vybraných, vysoko konkurenčných prostredí. U globálnych firiem môže tento zákon fakticky nastaviť de facto globálny štandard pre správu AI (podobne ako GDPR pre ochranu dát), a firmy budú musieť tieto požiadavky zaradiť do svojho AI vývoja. EÚ dúfa, že podporou dôvery cez reguláciu v skutočnosti podporí využívanie AI – podniky aj spotrebitelia sa možno budú cítiť komfortnejšie, ak vedia, že umelá inteligencia je regulovaná. Toto však platí len vtedy, ak je compliance reálne dosiahnuteľná; v opačnom prípade by sa inovácia mohla presunúť do menej regulovaných prostredí.

Dôsledky pre inovácie, investície do AI a medzinárodné zosúladenie

Zákon o AI EÚ vyvolal rozsiahlu diskusiu o jeho širšom dosahu na trh s umelou inteligenciou – obmedzí alebo podporí inovácie? Ako ovplyvní globálnu správu AI? Tu sú hlavné očakávané dôsledky:

Inovácie: Prekážka alebo akcelerátor? Kritici tvrdia, že prísne pravidlá zákona, najmä pre AI s vysokým rizikom, môžu spomaliť experimentálne inovácie, obzvlášť u startupov, ktoré prinášajú väčšinu progresívneho vývoja seniorexecutive.com. Povinnosti spojené s compliance (dokumentácia, hodnotenia atď.) môžu predĺžiť vývojové cykly a odčerpávať zdroje od čistej výskumnej a vývojovej činnosti. Napríklad, výskumný tím AI môže musieť stráviť mesiace navyše verifikovaním dát a písaním správ o splnení požiadaviek pred uvedením produktu. Objavujú sa obavy z potenciálneho „odlevu inovácií“, kedy sa špičkové AI talenty alebo firmy radšej usadia v regiónoch s menšími regulačnými prekážkami seniorexecutive.com. Ak bude Európa vnímaná ako príliš komplikovaná, ďalší prelomový AI systém môže vzniknúť v USA alebo Ázii a neskôr sa upraví pre Európu (prípadne nebude v EÚ vôbec dostupný).

Už teraz sme videli, že niektoré AI služby (najmä generatívne aplikácie) zablokovali na základe geolokácie používateľov z EÚ alebo meškajú s uvedením v EÚ, pričom dôvodom je regulačná neistota. V dlhšom horizonte, ak bude zákon vnímaný ako príliš zaťažujúci, Európa riskuje zaostávanie v nasadzovaní AI oproti prostrediam s voľnejším prístupom.

Na druhej strane mnohé hlasy z odvetvia tvrdia, že jasné pravidlá môžu podporiť inovácie znížením neistoty seniorexecutive.com. Zákon vytvára predvídateľné prostredie – firmy poznajú „pravidlá hry“ a môžu inovovať s istotou, že ak ich dodržia, ich AI nebude neskôr zakázaná alebo vystavená verejnému pohoršeniu. Často citovanou výhodou je, že zákon zvýši verejnú dôveru v AI, čo je pre prijatie kľúčové. Ak občania veria, že AI v Európe je overená z pohľadu bezpečnosti a spravodlivosti, môžu riešenia AI prijímať otvorenejšie, čím sa rozšíri trh s produktmi postavenými na AI. Firmy môžu byť ochotnejšie investovať do AI projektov, ak vedia, že ich povedie rámec compliance, namiesto strachu z „Divokého západu“ plného škandálov či súdnych sporov.

V podstate sa zákon snaží nájsť rovnováhu: zavádza trenie (dohľad, zodpovednosť) s cieľom, aby to viedlo k dlhodobej udržateľnej inovácii namiesto krátkodobého obdobia nekontrolovanej slobody. Zavedenie sandboxov a zameranie na malé a stredné podniky ukazuje, že EÚ vie, že príliš veľa trenia = strata inovácií, a snaží sa to aktívne zmierniť.

Argumentuje sa tiež, že etická AI inovácia by sa mohla stať konkurenčnou výhodou. Európske spoločnosti by sa mohli špecializovať na AI, ktorá je transparentná a stavia človeka do centra už od návrhu, čo im poskytuje výhodu v čase zvýšeného dopytu po zodpovednej AI. Už teraz je oblasť nástrojov pre AI etiku a compliance rastúcim sektorom – od softvéru na detekciu zaujatosti až po platformy na dokumentovanie modelov – čiastočne aj kvôli očakávaným reguláciám ako je táto.

Investície do AI: Krátkodobo predstavujú náklady na compliance novú „daň“ na vývoj AI, čo môže viesť investorov k väčšej opatrnosti alebo k presmerovaniu investícií smerom k potrebám compliance. Niektoré VC a private equity fondy sa môžu vyhýbať startupom v prísne regulovaných AI segmentoch, pokiaľ tieto startupy nemajú jasný plán dodržiavania pravidiel (alebo pokiaľ potenciál trhu nepreváži náklady na compliance). Naopak, možno uvidíme nárast investícií do niektorých oblastí:

  • RegTech pre AI: Firmy ponúkajúce riešenia na pomoc s dodržiavaním AI Act (napr. auditorské služby pre AI, automatizáciu dokumentácie, nástroje na monitorovanie modelov) môžu zaznamenať investičný boom, keďže dopyt po ich produktoch stúpa.
  • AI Assurance a štandardy: Financovanie môžu získať projekty AI, ktoré dokážu splniť alebo prekonať požiadavky regulácií a vďaka tomu vyniknú. Napríklad AI model, ktorý je preukázateľne vysvetliteľný a spravodlivý, môže prilákať zákazníkov i investorov svojím „compliance by design“.

EÚ sama smeruje investície do AI výskumu a inovácií v súlade s dôverou. Prostredníctvom programov ako Horizon Europe a Digital Europe Programme, sú financie prideľované AI projektom zdôrazňujúcim transparentnosť, robustnosť a súlad s hodnotami EÚ. Verejné financovanie sa teda využíva na to, aby inovácie naďalej pokračovali, ale v usmernenom rámci.

Jedným z možných výsledkov je, že niektoré AI segmenty budú v Európe prekvitať (tie, ktoré ľahko zapadnú do pravidiel, napr. AI pre zdravotníctvo s jasne dokázateľným prínosom v oblasti bezpečnosti), zatiaľ čo iné môžu zaostávať (napríklad AI pre moderovanie obsahu na sociálnych sieťach, ak bude považovaná za príliš rizikovú alebo zložitú na compliance – len hypoteticky). Môže tiež prísť k zmenám v pomere AI pre priamy spotrebiteľský trh vs. AI pre firmy – pretože spotrebiteľská AI podlieha väčšej regulačnej pozornosti (najmä ak môže ovplyvniť správanie), kým podniková AI používaná interne môže byť na compliance jednoduchšia.

Globálne zosúladenie alebo fragmentácia: Na medzinárodnej úrovni je zákon o AI v EÚ pozorne sledovaný. Skutočne sa môže stať šablónou, ktorú prevezmú ďalšie demokracie. Už teraz Brazília schválila zákon s modelom vychádzajúcim z EÚ a založeným na hodnotení rizika cimplifi.com a krajiny ako Kanada pripravujú zákony o AI (AIDA bill), ktoré sa zameriavajú na AI s veľkým dopadom a zmierňovanie rizík cimplifi.com. Tieto snahy sú ovplyvnené prístupom EÚ. Ak viaceré jurisdikcie prijmú podobné rámce, nastane zosúladenie – čo je pre AI firmy výhodné, keďže to znamená menej rozdielnych pravidiel na splnenie.

Nie všetci však idú presne týmto smerom. Spojené kráľovstvo napríklad doteraz uprednostňuje voľnejší, princípmi riadený prístup, vydávajúc usmernenia cez sektorových regulátorov namiesto jednej celoštátnej legislatívy cimplifi.com. Veľká Británia zdôrazňuje podporu inovácií a vyslovila sa, že nechce príliš skoro „zadrôtovať“ technológiu. Možno neskôr prijme vlastný AI Act, ale zrejme menej predpisový ako v EÚ. Japonsko a iné krajiny tiež preferujú mäkší prístup zameraný na dobrovoľnú správu a etické princípy pred záväznými pravidlami.

V Spojených štátoch momentálne neexistuje federálny AI zákon porovnateľný s aktom EÚ. USA vydali nezáväzný Blueprint for an AI Bill of Rights, ktorý stanovuje všeobecné princípy ako bezpečnosť, nediskrimináciu, ochranu údajov, transparentnosť a ľudské alternatívy weforum.org, no toto je skôr politický rámec než zákon vymožiteľný súdom. USA sa skôr prikláňajú k sektorovým reguláciám AI (napr. FDA pre AI v zdravotníckych zariadeniach, finanční regulátori pre AI v bankovníctve) a spoliehajú na už existujúce zákony pri riešení diskriminácie či zodpovednosti. Koncom roku 2023 a v roku 2024 sa aktivity zintenzívnili – Bidenova administratíva vydala exekutívny príkaz k AI (október 2023), podľa ktorého musia vývojári veľmi pokročilých AI modelov zdieľať výsledky bezpečnostných testov s vládou; rieši aj AI v oblastiach ako bio-bezpečnosť a občianske práva. Je to však exekutívne opatrenie, nie zákon prijatý Kongresom. Medzitým Kongres preberá AI na vypočúvaniach a pripravuje návrhy, avšak k 2025 žiadny neprešiel. S najväčšou pravdepodobnosťou USA čaká hybrid: niektoré štáty majú vlastné AI zákony (napr. povinnosť transparentnosti pre AI generujúce deepfakes či pravidlá na AI v náborových nástrojoch) a federálne agentúry dozerajú na existujúce regulácie (FTC – nekalé AI praktiky, EEOC – zaujaté AI vo výberových konaniach a pod.) namiesto jednej komplexnej legislatívy.

To v krátkodobom horizonte znamená, že firmy čelia rozdielnemu regulačnému prostrediu: v EÚ prísny režim, v USA voľnejší (no postupne sa meniaci) a inde ďalšie modely. Analýza médií Senior Executive predpovedá, že USA zostanú pri sektorovej stratégii kvôli udržaniu konkurenčnej výhody, zatiaľ čo Čína bude pokračovať v prísnych kontrolných opatreniach a ďalšie krajiny ako UK, Kanada či Austrália zvolia flexibilné usmernenia seniorexecutive.com. Táto nejednotnosť môže byť pre firmy výzvou – budú musieť prispôsobovať AI systémy požiadavkám každého regiónu, čo je náročné a drahé, a môže to spomaľovať globálne zavádzanie AI, pretože je potrebné riešiť compliance vo viacerých rámcoch.

Pozitívne je, že prebiehajú aktívne snahy o medzinárodnú koordináciu: EÚ a USA prostredníctvom Rady pre obchod a technológie majú pracovnú skupinu pre AI, aby našli spoločnú reč (pracujú na témach ako terminológia a štandardy AI). Skupina G7 spustila v polovici roka 2023 hirošimský AI proces, v rámci ktorého sa diskutuje o globálnej správe AI, a jednou z navrhnutých myšlienok bolo vypracovať kódex správania pre AI firmy na medzinárodnej úrovni. Organizácie ako OECD a UNESCO prijali zásady AI, ku ktorým sa mnoho štátov (vrátane USA, EÚ a dokonca aj Číny v prípade OECD) prihlásilo – tieto princípy pokrývajú známe témy (férovosť, transparentnosť, zodpovednosť). Dúfame, že by mohli slúžiť ako základ pre zosúladenie regulácií.

V dlhodobom horizonte niektorí veria, že môžeme nakoniec dospieť ku konvergencii základných princípov, aj keď sa budú právne mechanizmy líšiť seniorexecutive.com. Napríklad, takmer všetci sa zhodnú, že AI by nemala byť nebezpečná alebo očividne diskriminačná – rozdiely môžu byť v spôsobe, ako sa tieto očakávania vynucujú, no výsledok (bezpečnejšia, férovejšia AI) je spoločným cieľom. Je možné, že prostredníctvom dialógov a možno aj medzinárodných dohôd dôjde k čiastočnej harmonizácii. Fragmentovaný začiatok by mohol časom viesť k jednotnejšiemu súboru noriem seniorexecutive.com, najmä ako sa AI technológie globalizujú (AI je v prepojenom svete ťažké „geofenceovať“).

Lídri a konkurencia v AI: Existuje aj geopolitický aspekt. EÚ sa prezentuje ako líder v oblasti etickej správy AI. Ak sa jej model presadí aj globálne, EÚ môže získať výhodu pri určovaní štandardov (tak ako pri GDPR ovplyvňujúcom ochranu dát na celom svete). Na druhej strane, ak by zákon brzdil európsky AI priemysel, kým iné regióny napredujú, EÚ by mohla byť kritizovaná za sebou spôsobené konkurenčné nevýhody. Americké technologické firmy momentálne vedú v mnohých oblastiach AI a Čína masívne investuje do AI. Stávkou Európy je, že dôveryhodná AI zvíťazí nad neregulovanou AI v dlhodobom horizonte, no to sa ešte len uvidí.

Prvé signály v roku 2025 naznačujú oboje: Niektoré AI firmy uviedli, že európske pravidlá ich vedú k lepším interným kontrolám (pozitívum), zatiaľ čo iné pozastavili určité služby v Európe (negatívum). Vidíme tiež medzinárodné firmy v kontakte s regulátormi EÚ – napríklad veľké AI laboratóriá diskutujú s Európskou úniou o implementácii opatrení ako je vodoznakovanie AI obsahu, čo znamená, že zákon už teraz ovplyvňuje ich globálny produktový dizajn.

Z investičného a výskumného hľadiska možno očakávať viac AI výskumu v oblastiach ako vysvetliteľnosť, zníženie zaujatosti a overovanie – pretože to je potrebné pre súlad s reguláciou. EÚ financuje množstvo výskumov v týchto oblastiach, čo by mohlo viesť k prelomom, ktoré urobia AI prirodzene bezpečnejšou a jednoduchšie regulovateľnou (napríklad nové techniky interpretácie neurónových sietí). Ak takéto prelomy nastanú, môžu z nich profitovať všetci, nielen Európa.

V súhrne, Zákon o AI EÚ je odvážny regulačný experiment, ktorý môže nastaviť globálny štandard pre spravovanie AI, alebo – ak bude zle nastavený – ohroziť izoláciu európskeho AI ekosystému. Najpravdepodobnejšie však bude mať zásadný formujúci vplyv: Inovácie v oblasti AI sa nezastavia, no prispôsobia sa začleneniu regulačných mantinelov. Firmy a investori upravujú stratégie – vkladajú compliance do vývoja produktov, zohľadňujú náklady na AI v EÚ a niektorí môžu presúvať pozornosť na aplikácie s nižším rizikom alebo na iné trhy. V medzinárodnom meradle sme na rázcestí: bude svet nasledovať lídra EÚ (čo povedie k jednotnejším globálnym AI štandardom), alebo bude existovať rozštiepenie, kde sa AI bude vyvíjať pod odlišnými regulačnými filozofiami? Najbližšie roky, keď zákon vstúpi naplno do platnosti a ostatné krajiny zareagujú, budú rozhodujúce.

Globálne regulácie AI: Akt EÚ verzus USA a Čína (a ďalšie)

Zákon o AI EÚ neexistuje vo vákuu – je súčasťou globálnej snahy adresovať výzvy AI. Pozrime sa na prístupy USA a Číny, ďalších dvoch AI veľmocí s veľmi odlišnou regulačnou filozofiou, a spomeňme aj ďalšie krajiny:

Spojené štáty (Náčrt Listiny práv AI & vznikajúce politiky): USA doteraz razili menej centralizovaný, viac princípový prístup. V októbri 2022 vydal Biely dom prostredníctvom Úradu pre vedu a technológiu Blueprint for an AI Bill of Rights (Náčrt Listiny práv AI), čo je súbor piatich hlavných princípov pre dizajn a použitie automatizovaných systémov weforum.org:

  1. Bezpečné a efektívne systémy – Američania by mali byť chránení pred nebezpečnými alebo nefunkčnými AI (napríklad AI by mala byť testovaná a monitorovaná, aby sa zabezpečilo, že je efektívna pre zamýšľané použitie) weforum.org.
  2. Ochrana pred algoritmickou diskrimináciou – AI systémy by nemali nespravodlivo diskriminovať a mali by byť používané spravodlivo weforum.org. Toto súvisí s platnými antidiskriminačnými zákonmi; v podstate AI nesmie byť „slabým článkom“, ktorý by umožnil diskrimináciu, ktorá by bola pri ľudskom rozhodnutí nezákonná.
  3. Ochrana osobných údajov – Ľudia by mali mať kontrolu nad tým, ako sú ich dáta využívané AI, a mali by byť chránení pred zneužitím dát weforum.org. Toto nezavádza nový zákon o ochrane osobných údajov, ale zdôrazňuje, že AI nemá porušovať súkromie a dáta má využívať minimálne.
  4. Oznámenie a vysvetlenie – Ľudia by mali vedieť, že je použitý AI systém, a mali by byť schopní pochopiť, prečo o nich AI rozhodla weforum.org. Volá po transparentnosti a vysvetliteľnosti, podobne ako požiadavky na transparentnosť v EÚ.
  5. Ľudská alternatíva, zvažovanie a záloha – Ak je to vhodné, mali by existovať možnosti odhlásenia alebo ľudského zásahu weforum.org. Napríklad ak vám AI zamietne dôležitú žiadosť (hypotéku a pod.), mali by ste môcť odvolať sa na človeka alebo požiadať o opätovné posúdenie.

Tieto princípy zrkadlia mnohé ciele zákona EÚ (bezpečnosť, férovosť, transparentnosť, ľudský dohľad), no kľúčové je, že Listina práv AI nie je zákon – ide o rámec politík bez záväznej právnej sily weforum.org. Zatiaľ sa vzťahuje hlavne na federálne agentúry, ktoré usmerňuje pri obstarávaní a využívaní AI. Predpokladá sa, že poslúži aj ako vzor pre priemysel a niektoré firmy tieto zásady už podporili. Ale súlad je dobrovoľný; žiadne sankcie nie sú priamo naviazané na Listinu práv AI.

Okrem toho sa USA spoliehajú na existujúce zákony pri riešení výrazných ujm spôsobených AI. Napríklad Federálna obchodná komisia (FTC) varovala firmy, že ich môže sankcionovať za nečestné alebo klamlivé praktiky týkajúce sa AI (napríklad nepravdivé tvrdenia o schopnostiach AI, alebo používanie AI spôsobujúce ujmu spotrebiteľom). Komisia pre rovnosť zamestnanosti (EEOC) skúma, ako sa pracovnoprávne zákony vzťahujú na AI nástroje pri nábore – napríklad ak AI systematicky odmieta starších uchádzačov, môže to byť porušením antidiskriminačných zákonov. Takže v USA zatiaľ dochádza k presadzovaniu pravidiel AI, no prostredníctvom všeobecných zákonov, nie špecifických AI regulácií.

Situácia v USA sa však začína meniť. V rokoch 2023-2024 prebehli v Kongrese vážne diskusie o regulácii AI, vyvolané rýchlym rozvojom generatívnej AI. Bolo predložených viacero návrhov zákonov o AI (od označovania deepfake obsahu, cez transparentnosť AI až po rámce zodpovednosti), no zatiaľ nebol žiaden prijatý. Diskutuje sa aj o vzniku federálneho inštitútu pre bezpečnosť AI alebo o udelení nových právomocí agentúram na dohľad nad AI. Je pravdepodobné, že v USA v nasledujúcich rokoch vzniknú konkrétnejšie AI regulácie, no zrejme pôjde o cielený prístup a nie komplexný zákon európskeho typu. USA zvyknú regulovať podľa sektora – napríklad AI v zdravotníctve musí spĺňať pravidlá FDA, ktorá už vydala usmernenia na „softvér ako medicínske zariadenie“, čo zahŕňa aj určité AI algoritmy. Ďalší príklad: finančné regulačné úrady (ako CFPB či OCC) majú záujem o AI v úverových modeloch a môžu vyžadovať férovosť prostredníctvom už platných finančných zákonov.

Oblasť, kde sú USA rozhodné, je AI súvisiaca s národnou bezpečnosťou: Posledný výkonný príkaz americkej vlády prikazuje vývojárom pokročilých AI modelov zdieľať výsledky bezpečnostných testov s vládou, ak by ich modely mohli mať vplyv na národnú bezpečnosť (napríklad modelovanie nebezpečných biologických činidiel). Ide o konkrétny prístup oproti EÚ, kde okrem využitia vymáhania práva nie je špecifická výnimka pre národnú bezpečnosť.

V súhrne, americký prístup je v súčasnosti mierny a riadený princípmi, s dôrazom na inovácie a už existujúce právne rámce. Firmy sú povzbudzované (no zatiaľ nenútené) dodržiavať etické zásady. EÚ ich vyžaduje priamo zákonom s auditmi a pokutami, USA zatiaľ poradným spôsobom a spolieha na trh a všeobecné zákony pre presadzovanie. Či sa USA k EÚ časom viac priblíži (vlastným AI zákonom alebo balíkom pravidiel), je dôležitá otázka. Sú v USA hlasy, ktoré žiadajú viac regulácie na podporu konkurencieschopnosti a dôvery verejnosti, ale aj silné hlasy varujúce pred prehnanou reguláciou, ktorá by mohla brzdiť technologický sektor. Možno sa dospeje k kompromisu: napríklad povinná transparentnosť pri kritických AI systémoch alebo certifikácia AI v citlivých oblastiach bez úplného režimu tried prísnosti.

Čínske regulácie a normy v oblasti umelej inteligencie: Čína má veľmi odlišný politický systém a jej riadenie AI odráža jej priority: spoločenskú stabilitu, kontrolu informácií a strategické líderstvo v oblasti AI. Čína rýchlo rozširuje svoj regulačný rámec, pričom prístup je prísny najmä v oblasti obsahu a používania a často sa presadzuje prostredníctvom administratívnych pravidiel.

Kľúčové prvky čínskeho prístupu zahŕňajú:

  • Povinná kontrola a cenzúra AI obsahu: V auguste 2023 Čína zaviedla prechodné opatrenia pre služby generatívnej umelej inteligencie cimplifi.com. Tieto pravidlá vyžadujú, aby akákoľvek verejne ponúkaná generatívna AI (ako chatboti alebo generátory obrázkov) zabezpečila, že obsah je v súlade s kľúčovými socialistickými hodnotami a je zákonný a pravdivý. Poskytovatelia musia proaktívne filtrovať zakázaný obsah (všetko, čo by sa mohlo považovať za subverzívne, obscénne alebo inak nezákonné v rámci čínskeho systému cenzúry). To znamená, že čínske AI spoločnosti musia integrovať robustnú moderáciu obsahu. Pravidlá taktiež požadujú označovanie AI-generovaného obsahu, ak by mohol ľudí pomýliť, čo je skutočné cimplifi.com. Takže veľmi podobné požiadavke EÚ na označenie deepfake, avšak v Číne je to prezentované ako spôsob, ako predchádzať dezinformáciám, ktoré by mohli spôsobiť spoločenské nepokoje.
  • Registrácia algoritmov: Už pred pravidlami pre generatívnu AI mala Čína regulácie pre odporúčacie algoritmy (v platnosti od začiatku 2022). Firmy museli registrovať svoje algoritmy na Cyberspace Administration of China (CAC) a predkladať informácie o ich fungovaní. Tento centrálny register slúži na dohľad; úrady chcú vedieť, aké algoritmy sa používajú, predovšetkým tie, ktoré ovplyvňujú verejnú mienku (napr. algoritmy spravodajských kanálov).
  • Overenie totožnosti a kontrola údajov: Čínske predpisy často vyžadujú, aby používatelia AI služieb registrovali svoju skutočnú identitu (na odradenie od zneužitia a umožnenie vystopovania tvorcu obsahu). Dáta používané na trénovanie AI, najmä ak ide o osobné údaje, podliehajú čínskemu zákonu o bezpečnosti údajov a zákonu o ochrane osobných údajov. Čínske spoločnosti teda musia manévrovať aj s požiadavkami na prístup vlády (vláda môže požadovať prístup k dátam a algoritmom z bezpečnostných dôvodov).
  • Bezpečnostné posúdenia: V rokoch 2024-2025 čínska normalizačná organizácia (NISSTC) vydala návrh bezpečnostných smerníc pre generatívnu AI cimplifi.com. Podrobne rozvádzajú technické opatrenia pre nakladanie s trénovacími dátami, bezpečnosť modelov atď., v súlade so zameraním vlády na AI, ktorú nemožno ľahko zneužiť alebo ktorú nemožno prinútiť vytvárať zakázaný obsah. V marci 2025 CAC finalizoval Opatrenia na správu označovania AI-generovaného obsahu (viď vyššie), ktoré povinne od septembra 2025 vyžadujú, aby všetok AI-generovaný obsah bol jasne označený ako taký cimplifi.com. Toto sa prekrýva s podobným pravidlom EÚ, hoci čínske odôvodnenie je čiastočne boj proti „fámam“ a udržiavanie kontroly nad informáciami.
  • Široké etické rámce: Čína vydala aj vysoko postavené princípy – napríklad v roku 2021 ministerstvo vedy a technológie Číny publikovalo etické smernice pre AI, ktoré hovoria o ľudskej centricite a kontrole. V roku 2022 Národný výbor pre správu umelej inteligencie (viacstranná skupina) vydal dokument Zásady správy AI, ktorý zdôrazňuje harmóniu, spravodlivosť a transparentnosť. A v roku 2023 Čína vydala Rámec pre bezpečnostnú správu AI v súlade so svojou globálnou AI iniciatívou, ktorý kladie dôraz na prístup zameraný na človeka a kategorizáciu rizík cimplifi.com. Tieto smernice sa do istej miery podobajú princípom OECD alebo EÚ, čo ukazuje, že Čína chce byť vnímaná ako propagátor „zodpovednej AI“, hoci v jej vlastnom kontexte (napr. spravodlivosť v Číne môže znamenať predchádzanie diskriminácii menšín, ale tiež zabezpečenie, aby AI neohrozovala národnú jednotu).
  • Prísne využívanie zákona v orgánoch (alebo zneužívanie): Kým EÚ zakazuje mnohé aplikácie biometriky v reálnom čase, Čína je lídrom v nasadzovaní AI do dohľadu (napr. rozpoznávanie tváre na verejnosti, monitorovanie „smart city“ atď.). Existujú síce niektoré regulácie za účelom zabezpečenia správneho a kontrolovaného využitia políciou, no všeobecne má štát široké právomoci. Systém sociálneho kreditu existuje v zárodku (väčšinou finančný kredit a súdne záznamy), nie však tak sci-fi, ako sa často uvádza, a EÚ výslovne zakázala to, čo považuje za „sociálne skóre“.

V praxi sú čínske regulácie prísne pri kontrole obsahu a etických zásadách, no implementované zhora nadol. Ak je zákon EÚ o AI o posilnení jednotlivcov a vytváraní procesnej zodpovednosti, čínsky prístup je o kontrole poskytovateľov a zabezpečení, aby AI nenarušila ciele štátu. Pre firmy to v Číne znamená úzku spoluprácu s úradmi, budovanie cenzúrnych a reportovacích funkcií a zosúladenie s národnými cieľmi (napr. využívať AI na ekonomický rozvoj, ale nie na odpor).

Dalo by sa povedať, že čínsky režim je „prísny, ale odlišný“: nekladie dôraz na verejnú transparentnosť (bežný čínsky používateľ zväčša nedostane vysvetlenie AI rozhodnutí), ale zdôrazňuje sledovateľnosť a viditeľnosť AI systémov voči vláde. Tiež priamo zakazuje využitie, ktoré by boli na západe do určitej miery povolené (napr. niektoré typy politickej reči prostredníctvom AI).

Čínske AI spoločnosti, ako Baidu či Alibaba, museli stiahnuť alebo preškoliť modely, ktoré generovali politicky citlivý obsah. Vývoj veľkých modelov v Číne je výrazne ovplyvnený týmito pravidlami – vopred filtrujú tréningové dáta na odstránenie tabu tém a modely dolaďujú, aby sa vyhli určitým témam.

Zaujímavé je, že niektoré čínske požiadavky (napríklad označovanie deepfakes) sa prekrývajú s tými v EÚ, hoci z mierne odlišných dôvodov. To naznačuje potenciál konvergencie v technických štandardoch – označovanie AI-generovaných médií by sa mohlo stať globálnou normou, aj keď motivácia sa líši (EÚ: ochrana pred klamstvom; Čína: to isté plus udržanie kontroly).

Ostatné krajiny: Okrem týchto troch stojí za zmienku niekoľko príkladov:

  • Kanada: Ako už bolo spomenuté, Kanada navrhla zákon o umelej inteligencii a údajoch (AIDA) ako súčasť návrhu zákona C-27 cimplifi.com. Zameriaval sa na „vysoko-impaktné“ systémy AI s požiadavkami na hodnotenie vplyvov a niektorými zákazmi. Tento zákon však uviazol (na začiatku roku 2025 nebol prijatý, fakticky „zomrel“ v parlamente cimplifi.com). Kanada sa k nemu možno vráti neskôr. Zatiaľ sa Kanada riadi princípmi z členstva v OECD a podobných organizáciách.
  • Spojené kráľovstvo: Spojené kráľovstvo, odlišne od EÚ, zverejnilo bielu knihu o regulácii AI (marec 2023) zdôrazňujúcu proinovačný a mäkký prístup. Plán Británie je nechať existujúcich regulátorov (ako Health and Safety Executive, Financial Conduct Authority atď.) vydávať usmernenia pre AI vo vlastných sektoroch na základe spoločných princípov (bezpečnosť, transparentnosť, spravodlivosť, zodpovednosť, možnosť napadnutia rozhodnutia) cimplifi.com. Vedome sa rozhodli nelegislatívne zaviesť nový AI zákon ihneď. Spojené kráľovstvo sleduje vývoj zákona EÚ a môže sa prispôsobiť, no chce si udržať flexibilitu, najmä kvôli prilákaniu AI biznisu. Británia tiež hostila AI Safety Summit (konal sa v novembri 2023), aby sa zapojila do globálnych diskusií o AI. Britský prístup môže znamenať menej krátkodobých obmedzení, no môže sa zmeniť, ak sa riziká AI ukážu ako zásadné.
  • Ďalší v okruhu EÚ: Rada Európy (ktorá je širšia než samotná EÚ) pripravuje AI Dohovor, ktorý by mohol byť právne záväznou zmluvou o etike a ľudských právach v oblasti AI – stále je v príprave, no v prípade dohody by mohla viazať signatárov (vrátane niektorých nečlenských štátov EÚ) na princípy podobné tým z AI zákona EÚ, no vo všeobecnejšej podobe.
  • India, Austrália a iné: Mnohé krajiny publikovali etické usmernenia pre AI. India napríklad uplatňuje rámcový prístup a skôr sa prikláňa k inováciám, aktuálne neplánuje špecifický AI zákon, zameriava sa na budovanie kapacít a sektorové odporúčania. Austrália pripravuje rámce založené na hodnotení rizík, zatiaľ pravdepodobne bez tvrdého zákona. Všeobecným trendom je, že všetci vnímajú potrebu riadiť AI, akurát úroveň tvrdých regulácií verzus mäkkých odporúčaní sa líši.
  • Svetové fóra: UNESCO doporučenie o etike AI (2021) podporilo takmer 200 krajín a zahŕňa princípy ako primeranosť, bezpečnosť, spravodlivosť atď. Nie je právne záväzné, no ukazuje konsenzus vo hodnotách. Podobne OECD AI Principles (2019) boli široko prijaté a dokonca ovplyvnili aj G20. Tieto globálne princípy sú naoko veľmi podobné prístupu EÚ. Výzvou je ich rovnaká praktická implementácia v rôznych štátoch.

Svetové ekonomické fórum a ďalšie skupiny tiež rozvíjajú dialógy. Tak, ako sa uvádza v článku WEF, je otvorená otázka, či sledujeme „scenár rozchádzajúcich sa ciest“ (USA, Čína a EÚ si idú každá svojím regulačným smerom) alebo „dominový efekt“, kde krok EÚ povzbudzuje ostatných nasledujúť weforum.org seniorexecutive.com. Dôkazy sú pre oba prípady: je jasné, že EÚ ovplyvnila Brazíliu a Kanadu; USA možno mierne mení postoj pod vplyvom tlaku z EÚ (napríklad diskusia o väčšej transparentnosti môže byť reakciou na tlak EÚ); Čína sa do istej miery zhoduje (zdieľa niektoré technické štandardy, nie však demokratizačný aspekt).

Na záver, zjednodušené porovnanie by mohlo byť takéto:

  • EÚ: Komplexná právne záväzná regulácia naprieč sektormi na základe rizika; dôraz na základné práva, prísne vymáhanie (pokuty, dozorné orgány).
  • USA: Neexistuje jednotný zákon (k roku 2025); spoliehanie sa na všeobecné princípy (AI Bill of Rights) a sektorové dohliadanie; dôraz na inovácie a existujúce rámce práv; zatiaľ väčšia miera samoregulácie priemyslu.
  • Čína: Podrobné vládne pravidlá na kontrolu výstupov a používania AI; dôraz na bezpečnosť, cenzúru a vládny dohľad; povinné dodržiavanie etických noriem určených štátom; vymáhanie prostredníctvom štátnych agentúr s prísnymi sankciami (vrátane trestných, pri porušení pravidiel štátu).

Napriek rozdielom si všetky tri režimy uvedomujú problémy ako zaujatosti, bezpečnosť a transparentnosť – len im prikladajú inú prioritu a inak ich vymáhajú. Pre globálnu spoločnosť to znamená navigovať tri režimy: dodržiavať procesnú prísnosť EÚ, riadiť sa americkými smernicami a štátnymi predpismi, a implementovať čínske pravidlá pre obsah a registračné požiadavky pri pôsobení v Číne. Je to náročné a v medzinárodných fórach bude tlak na zníženie záťaže harmonizáciou niektorých oblastí (napríklad vypracovaním spoločných technických štandardov riadenia rizík AI, ktoré vyhovujú regulátorom vo viacerých jurisdikciách).

Jeden povzbudivý signál: spolupráca na AI štandardoch (technických štandardoch prostredníctvom ISO/IEC či iných orgánov) by mohla umožniť spoločnosti vyvinúť AI podľa jedného súboru špecifikácií, ktoré budú potom všeobecne akceptované. Európsky zákon o AI dokonca vyzdvihuje, že dodržiavanie harmonizovaných európskych štandardov (keď budú pre AI existovať) bude znamenať prezumpciu súladu artificialintelligenceact.eu. Ak sa tieto štandardy zosúladia so svetovými, spoločnosť bude môcť „stvoriť raz, splniť globálne“.

Napokon – s tým, ako sa bude AI technológia vyvíjať (napríklad GPT-5 alebo viac autonómnych AI systémov), bude sa vyvíjať aj regulácia. EÚ zabudovala do svojho zákona hodnotiace mechanizmy na jeho aktualizáciu. USA či iné krajiny môžu pristúpiť k novým zákonom, ak dôjde k veľkej AI udalosti, ktorá vyvolá reakciu (ako napríklad niektoré úniky dát podnietili tvrdšie zákony o ochrane súkromia). Medzinárodné zbližovanie môže byť motivované aj nutnosťou – ak by AI spôsobila zásadné cezhraničné dopady (napr. AI spustí finančnú krízu), krajiny budú musieť spojiť sily na jej riešenie.

Pre organizácie, ktoré chcú „byť v predstihu“ v oblasti AI, je momentálne kľúčové sledovať všetky tieto smery: európska zhoda je nevyhnutnosťou pre prístup na trh EÚ, americké najlepšie postupy sú kľúčové pre tento veľký trh a porozumenie čínskym požiadavkám je zásadné pre tých, čo tam podnikajú. Proaktívny prístup – teda vnútorné začlenenie etických a bezpečných princípov AI – zabezpečí spoločnosti dobrú pozíciu na zvládnutie týchto rôznorodých režimov. To často znamená vytvorenie interného rámca riadenia AI, ktorý spĺňa tie najprísnejšie štandardy (väčšinou európske), a následne jeho úprava podľa regiónu.

Na záver možno povedať, že AI Act Európskej únie od roku 2025 udáva tón v regulácii AI, pričom síce vytvára výzvy, ale zároveň ponúka štruktúrovaný spôsob k dôveryhodnej AI. Spoločnosti aj vlády po celom svete sledujú vývoj a reagujú – niektoré sprísnením vlastnej regulácie, iné dôrazom na inovácie. Nasledujúce roky ukážu, ako sa tieto prístupy ovplyvnia a či sa podarí dosiahnuť väčšiu globálnu harmonizáciu správy AI, alebo ostaneme pri „nápatchworkovanom“ systéme, ktorý budú vývojári AI musieť precízne obchádzať. V každom prípade tí, ktorí budú informovaní a pripravia sa vopred – porozumejú nuansám európskej legislatívy, investujú do schopností súladu a zapoja sa do diskusií o politike – budú najlepšie pripravení uspieť v novej ére dohľadu nad AI.

Zdroje:

Pridaj komentár

Your email address will not be published.

Don't Miss

Dublin Real Estate 2025: Surging Prices, Scarce Supply & Bold Market Predictions

Dublinské nehnuteľnosti 2025: Rastúce ceny, nedostatok ponuky a odvážne trhové predpovede

Dublinský trh s nehnuteľnosťami zažíva v roku 2025 dramatický nárast,
Riyadh Real Estate Market 2025: Booming Growth, Vision 2030 Projects & Future Outlook

Rijádsky trh s nehnuteľnosťami 2025: Dynamický rast, projekty Vízie 2030 a budúci výhľad

Rijádsky trh s nehnuteľnosťami zažíva pozoruhodný boom v roku 2025,