Úvod a legislativní přehled
Zákon o umělé inteligenci Evropské unie (EU AI Act) je prvním komplexním rámcem na světě, který reguluje AI s cílem zajistit důvěryhodnou AI, která zachovává bezpečnost, základní práva a společenské hodnoty digital-strategy.ec.europa.eu. Tento zákon navrhla Evropská komise v dubnu 2021 a po rozsáhlých jednáních byl formálně přijat v polovině roku 2024 europarl.europa.eu europarl.europa.eu. Zákon zavádí přístup založený na riziku pro správu AI a ukládá povinnosti úměrné potenciálnímu riziku škody artificialintelligenceact.eu.
Legislativní harmonogram: Klíčové milníky zahrnují schválení Evropským parlamentem v letech 2023–2024 a oficiální zveřejnění dne 12. července 2024, což odstartovalo vstup zákona v platnost 1. srpna 2024 artificialintelligenceact.eu artificialintelligenceact.eu. Nicméně, ustanovení zákona nabývají účinnosti postupně během následujících let:
- 2. února 2025: AI systémy s nepřijatelným rizikem zakázány. Veškeré AI praktiky označené za „nepřijatelné riziko” (viz níže) jsou od tohoto data zakázány europarl.europa.eu. Členské státy EU rovněž spouštějí programy AI gramotnosti pro veřejnost artificialintelligenceact.eu.
- 2. srpna 2025: Začínají platit pravidla transparentnosti & řízení. Vstupují v platnost nová pravidla pro modely AI pro obecné účely (foundation models) a orgány pro správu AI artificialintelligenceact.eu digital-strategy.ec.europa.eu. Začíná fungovat evropský Úřad pro AI (vysvětleno níže) a od tohoto data lze vymáhat pokuty za porušení pravidel orrick.com orrick.com.
- 2. srpna 2026: Plná účinnost hlavních požadavků. Většina povinností podle AI Actu – zejména pro nasazení AI systémů s vysokým rizikem – se stává povinnou 24 měsíců po vstupu zákona v platnost digital-strategy.ec.europa.eu. Od tohoto data musí poskytovatelé nových AI s vysokým rizikem splnit požadavky před uvedením systémů na trh EU.
- 2. srpna 2027: Konec prodloužených lhůt. U některých AI začleněných v regulovaných produktech (např. lékařské přístroje poháněné AI) platí delší přechodné období (36 měsíců) – do roku 2027 pro splnění souladu digital-strategy.ec.europa.eu. Také poskytovatelé stávajících modelů AI pro obecné účely (uvedených na trh před srpnem 2025) musí do roku 2027 provést aktualizace dle požadavků nařízení artificialintelligenceact.eu.
Tento fázovaný harmonogram umožňuje organizacím se přizpůsobit, zatímco včasná opatření (jako zákaz škodlivých způsobů využití AI) cílí na nejzávažnější rizika bez prodlení europarl.europa.eu. Dále rozebereme systém klasifikace rizik a co to znamená pro zainteresované strany v oblasti AI.
Klasifikace podle rizika: Nepřijatelné, vysoké, omezené a minimální riziko
Podle EU AI Act je každý AI systém zařazen do úrovně rizika, která určuje způsob jeho regulace artificialintelligenceact.eu. Čtyři úrovně rizikovosti jsou:
- Nepřijatelné riziko: Tyto druhy využití AI jsou považovány za jasnou hrozbu pro bezpečnost nebo základní práva a jsou v EU zcela zakázány digital-strategy.ec.europa.eu. Zákon výslovně zakazuje osm praktik, včetně: AI využívající podprahové nebo manipulativní techniky způsobující újmu, zneužívající zranitelné skupiny (např. děti nebo osoby se zdravotním postižením) škodlivým způsobem, vládní “sociální skórování” občanů a určité nástroje prediktivní policejní činnosti artificialintelligenceact.eu artificialintelligenceact.eu. Významně je všeobecně zakázána vzdálená biometrická identifikace v reálném čase (např. živé rozpoznávání obličejů na veřejných prostranstvích) pro účely vymáhání práva digital-strategy.ec.europa.eu. Existují omezené výjimky – např. policie může v reálném čase použít rozpoznání obličeje k zabránění okamžité teroristické hrozbě nebo k nalezení pohřešovaného dítěte, ovšem pouze s povolením soudu a pod přísným dohledem europarl.europa.eu. V podstatě jakýkoliv AI systém, jehož samotné využití je považováno za neslučitelné s hodnotami EU (např. sociální skórování občanů nebo AI, která bezdůvodně předvídá kriminální chování), nesmí být nasazen digital-strategy.ec.europa.eu.
- Vysoké riziko: AI systémy, které představují závažné riziko pro zdraví, bezpečnost nebo základní práva, spadají do kategorie vysokého rizika. Tyto systémy jsou na trhu povoleny pouze pokud jsou zavedena rozsáhlá ochranná opatření. Případy vysokého rizika jsou vymezeny dvěma způsoby: (1) AI komponenty, které jsou bezpečnostně kritické a již dnes regulované evropskými produktovými směrnicemi (například AI ve zdravotnických zařízeních, automobilech, letectví apod.) artificialintelligenceact.eu; nebo (2) AI aplikace v konkrétních oblastech vyjmenovaných v příloze III zákona artificialintelligenceact.eu. Příloha III zahrnuje oblasti jako kritická infrastruktura, vzdělávání, zaměstnanost, základní služby, vymáhání práva, kontrola hranic a správa spravedlnosti europarl.europa.eu europarl.europa.eu. Například AI použitá ve vzdělávání (např. hodnocení testů nebo určování přijetí na školu) je brána jako vysoké riziko vzhledem k dopadu na životní příležitosti jednotlivce digital-strategy.ec.europa.eu. Podobně AI pro nábor a řízení pracovníků (např. automatizované třídění životopisů) či kreditní scoringové systémy spadají mezi vysokorizikové použití digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. I chirurgický robot poháněný AI nebo diagnostický nástroj ve zdravotnictví je brán jako vysokorizikový – buď kvůli začlenění do zdravotnického prostředku, nebo protože jeho selhání může ohrozit pacienty digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Vysokoriziková AI je přísně regulována – před jejím nasazením musí poskytovatelé přijmout důkladná opatření řízení rizik a projít posouzením shody (viz další sekce) cimplifi.com. Všechny systémy AI s vysokým rizikem se budou registrovat v databázi EU kvůli transparentnosti a dohledu cimplifi.com. Důležité je, že zákon definuje úzké výjimky, aby některé triviální využití těchto technologií nebylo zařazeno mezi vysokorizikové – např. pokud AI pouze asistuje lidskému rozhodnutí či vykonává marginální podúkol, může být vyjmuta artificialintelligenceact.eu. V základním nastavení se však AI vykonávající citlivé úkoly v uvedených odvětvích považuje za vysokorizikovou a podléhá přísné kontrole a požadavkům souladu.
- Omezené riziko: Tato kategorie zahrnuje AI systémy, které nejsou vysokorizikové, ale přesto vyžadují určité povinnosti transparentnosti artificialintelligenceact.eu. Zákon neukládá těmto systémům přísnou regulaci, pouze povinnost jasně informovat uživatele, že jednají s AI. Například chatboti nebo virtuální asistenti musí zřetelně upozornit, že uživatel komunikuje se strojem, nikoli s člověkem digital-strategy.ec.europa.eu. Podobně generativní AI vytvářející syntetické obrázky, videa či zvuk (např. deepfake) musí jasně označovat takto vytvořený obsah – například vodoznakem nebo popiskem – aby nedocházelo k uvedení v omyl europarl.europa.eu digital-strategy.ec.europa.eu. Cílem je zachovat důvěru veřejnosti zajištěním transparentnosti. S výjimkou těchto oznamovacích pravidel je možné AI s omezeným rizikem volně využívat bez předchozího schválení. Zákon považuje většinu AI určené pro běžné spotřebitele za omezené riziko, kde hlavní povinností je oznámení uživateli. Příkladem je AI, která modifikuje hlas nebo vytváří realistické obrazy – není zakázána, ale musí být jasně označena, aby nedošlo k oklamání uživatele europarl.europa.eu.
- Minimální (nebo nulové) riziko: Všechny ostatní AI systémy spadají do této nejnižší úrovně, která zahrnuje drtivou většinu AI aplikací. Tyto aplikace představují zanedbatelné nebo běžné riziko, a proto na ně zákon neukládá žádné nové povinnosti artificialintelligenceact.eu digital-strategy.ec.europa.eu. Typickými příklady jsou AI spamové filtry, doporučovací algoritmy, AI ve videohrách nebo triviální AI nástroje zabudované v softwaru. Pro tyto aplikace zůstává přístup „hands-off“ – lze je rozvíjet a používat jako dosud dle stávajících zákonů (například v ochraně spotřebitele či v oblasti soukromí), ale bez zvláštních AI administrativně právních mantinelů. EU explicitně uznává, že většina současně užívaných AI systémů je nízkoriziková a neměla by být přeregulována digital-strategy.ec.europa.eu. Regulace cílí na výjimky (vysoké a nepřijatelné riziko), zatímco AI s minimálním rizikem zůstává nezatížena a podporuje inovace v těchto oblastech.
Stručně řečeno, evropský model založený na riziku rovnou zakazuje nejhorší praktiky AI, silně reguluje citlivé využití AI a ostatních oblastí se dotýká pouze minimálně cimplifi.com. Toto vrstvené řešení má chránit občany před škodlivými vlivy a zároveň zabránit zavedení jednotné, příliš přísné regulace na všechnu AI. Dále popíšeme, co znamená zajištění souladu pro ty, kdo AI vytvářejí či provozují, zejména v kategorii vysokého rizika.
Povinnosti pro vývojáře (poskytovatele) a uživatele (provozovatele) AI
Požadavky na dodržování pravidel pro vysoce rizikovou AI: Pokud vyvíjíte AI systém, který je považován za vysoce rizikový, EU AI Act ukládá podrobný seznam povinností před uvedením systému na trh i po něm. Tyto požadavky v podstatě odrážejí postupy z bezpečnostně-kritických odvětví a ochrany dat, které se nyní vztahují na AI. Poskytovatelé (vývojáři, kteří uvádějí systém na trh) vysoce rizikové AI musí mimo jiné:
- Zavést systém řízení rizik: Musejí mít po celou dobu životního cyklu AI systému kontinuální proces řízení rizik artificialintelligenceact.eu. To znamená identifikovat předvídatelná rizika (např. bezpečnostní hrozby, rizika zaujatosti či chyb), analyzovat a hodnotit je, a přijímat opatření k jejich zmírnění od návrhu až po nasazení artificialintelligenceact.eu. Je to podobné jako přístup „bezpečnost již při návrhu“ – předvídání toho, jakým způsobem může AI selhat nebo způsobit újmu, a řešení těchto problémů již v rané fázi.
- Zajistit vysokou kvalitu dat a řízení dat: Trénovací, validační a testovací datové sady musejí být relevantní, reprezentativní a v maximální možné míře bezchybné či nezaujaté artificialintelligenceact.eu. Zákon zdůrazňuje prevenci diskriminačních výsledků, proto musí poskytovatelé analyzovat své datové sady na nesrovnalosti nebo chyby, které by mohly vést k nespravedlivému zacházení lidí AI digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Například při vývoji nástroje AI pro nábor zaměstnanců je potřeba zkontrolovat trénovací data, aby neodrážela dřívější genderové či rasové předsudky. Řízení dat zahrnuje také sledování původu dat a jejich zpracování, aby bylo možné výkonnost AI systému pochopit a auditovat.
- Technická dokumentace a vedení záznamů: Vývojáři musejí vytvářet rozsáhlou technickou dokumentaci, která dokládá soulad AI systému s požadavky artificialintelligenceact.eu. Dokumentace musí popisovat zamýšlený účel systému, návrh, architekturu, algoritmy, trénovací data i použitá opatření pro řízení rizik artificialintelligenceact.eu. Musí být dostatečná pro posouzení regulátorem, jak systém funguje a zda splňuje požadavky zákona. Dále musejí být vysoce rizikové systémy navrženy tak, aby automaticky zaznamenávaly své operace – tedy automaticky zapisovaly události či rozhodnutí, což umožňuje sledovatelnost a následné vyhodnocování artificialintelligenceact.eu digital-strategy.ec.europa.eu. Například AI systém rozhodující o úvěrech může zapisovat vstupy a podklady pro každé rozhodnutí. Tyto záznamy pomáhají odhalit chyby nebo předsudky a jsou klíčové v případě incidentu nebo vyšetřování souladu.
- Lidský dohled a jasné pokyny: Poskytovatelé musí systém konstruovat tak, aby umožňoval efektivní lidský dohled uživatelem nebo operátorem artificialintelligenceact.eu. To může znamenat implementaci funkcí či nástrojů pro zásah člověka nebo monitorování fungování AI. Poskytovatel musí zároveň předat podrobné pokyny pro použití uživateli artificialintelligenceact.eu. Tyto pokyny by měly vysvětlovat správnou instalaci a provoz AI, její omezení, očekávanou úroveň přesnosti, požadavky na lidský dohled a rizika zneužití artificialintelligenceact.eu. Cílem je, aby společnost používající AI (uživatel) mohla systém účinně kontrolovat a dohlížet na něj pouze tehdy, má-li od vývojáře všechny potřebné znalosti a prostředky. Například výrobce AI nástroje pro zdravotní diagnostiku musí nemocnici dodat informace o tom, jak interpretovat výstupy a kdy má lidský lékař ověřit výsledky.
- Výkonnost, robustnost a kybernetická bezpečnost: Vysoce rizikové AI systémy musejí dosahovat adekvátní úrovně přesnosti, robustnosti a kybernetické bezpečnosti pro svůj účel artificialintelligenceact.eu. Poskytovatelé musejí své modely testovat a ladit tak, aby minimalizovali chybovost a zabránili nepředvídatelným výstupům. Dále musejí zavádět ochranu proti manipulaci či útokům (kybernetická bezpečnost), protože ohrožená AI může být nebezpečná (například kdyby útočník změnil chování AI pro řízení dopravy). V praxi to znamená například zátěžové testování AI v různých podmínkách a zajištění toho, aby zvládla variace vstupů bez kritických selhání artificialintelligenceact.eu. Všechna známá omezení (např. snížená přesnost AI pro určité demo–grafické skupiny nebo scénáře) musejí být zdokumentována a v maximální možné míře eliminována.
- Systém řízení kvality: K propojení všech výše uvedených oblastí musejí poskytovatelé mít zavedený systém řízení kvality artificialintelligenceact.eu. Jedná se o formální organizační proces na podporu průběžného dodržování předpisů – podobně jako standardy kvality ISO – pokrývající vše od standardních provozních postupů při vývoji až po řešení incidentů a aktualizací. Upevňuje to soulad se zákonem tak, aby vývoj bezpečné a legální AI nebyl jednorázovou akcí, ale soustavnou organizační praxí poskytovatele.
Před uvedením vysoce rizikového AI systému na trh v EU musí poskytovatel projít posouzením shody, které ověří, že všechny tyto požadavky plní. U mnoha vysoce rizikových AI systémů postačí vlastní posouzení, kdy si poskytovatel zkontroluje soulad s regulací a vydá prohlášení o shodě EU. Pokud je však AI součástí produktů podléhajících zvláštnímu dozoru (například zdravotnický prostředek nebo automobil), může být nutné, aby shodu systému potvrdil oznámený subjekt (nezávislý třetí hodnotitel) dle platných produktových předpisů cimplifi.com. Ve všech případech budou souladné AI systémy označeny značkou CE, což znamená splnění evropských standardů, a budou zapsány do evropské databáze vysoce rizikových AI systémů cimplifi.com. Tato transparentní databáze umožní jak regulátorům, tak veřejnosti zjistit, jaké vysoce rizikové AI systémy jsou v provozu a kdo za ně nese odpovědnost.
Povinnosti uživatelů (provozovatelů): Zákon ukládá povinnosti také uživatelům či operátorům, kteří profesionálně provozují vysoce rizikové AI systémy. (Jde o firmy či veřejné orgány využívající AI, nikoliv koncové uživatele či spotřebitele.) Mezi hlavní povinnosti uživatelů patří: dodržovat pokyny poskytovatele, zajišťovat lidský dohled dle požadavků a průběžně monitorovat výkonnost AI v reálném provozu digital-strategy.ec.europa.eu. Pokud uživatel zaznamená neočekávané chování AI nebo bezpečnostní problém, musí přijmout opatření (včetně eventuálního pozastavení provozu) a informovat poskytovatele i úřady. Uživatelé musejí také vést provozní záznamy při provozu AI (zaznamenávat její výstupy a rozhodnutí, čímž doplňují logování systému) a hlásit závažné incidenty či poruchy úřadům artificialintelligenceact.eu. Například nemocnice používající AI pro diagnostiku by musela nahlásit případ, kdy AI způsobila chybnou diagnózu s následnou újmou pacienta. Tyto uživatelské povinnosti zajišťují, že kontrola pokračuje i po nasazení – AI není ponechána bez dozoru, ale je kontrolována člověkem, přičemž zpětná vazba putuje zpět k vývojářům i regulátorům.
Za povšimnutí stojí, že malé subjekty (např. malá firma) nejsou z těchto povinností vyňaty, pokud provozují vysoce rizikovou AI, ale autoři zákona předpokládají, že dokumentace a podpora od poskytovatelů umožní splnění povinností i těmto uživatelům. Zákon také rozlišuje uživatele od dotčených osob – ty (například spotřebitel odmítnutý rozhodnutím AI) nemají podle zákona povinnosti, ale mají práva, jako je možnost podávání stížností proti problematickým AI systémům europarl.europa.eu.
Požadavky na transparentnost (nad rámec vysokého rizika): Kromě systémů s vysokým rizikem nařizuje AI Act konkrétní opatření na transparentnost i pro určité AI systémy bez ohledu na stupeň rizika. Zmínili jsme je v části „omezené riziko“. Konkrétně každý AI systém, který komunikuje s lidmi, generuje obsah nebo lidi monitoruje, musí poskytovat informace o své povaze:- AI systémy, které komunikují s lidmi (například chatboti nebo AI asistenti), musí uživatele informovat, že jednají s AI. Například online chatbot zákaznické podpory by měl jasně uvádět, že jde o automatizovaný systém, aby uživatelé nebyli uvedeni v omyl, že si povídají s člověkem digital-strategy.ec.europa.eu.
- AI, která generuje nebo manipuluje s obsahem (obrázky, videa, audio či text) způsobem, který může být zavádějící, musí zajistit, aby byl tento obsah označen jako vytvořený AI digital-strategy.ec.europa.eu. Typickým příkladem jsou deepfaky: pokud AI vytvoří realistický obraz či video někoho, kdo ve skutečnosti danou věc neudělal nebo neřekl, musí být toto médium označeno jako AI vytvořené (s výjimkou satiry, umění nebo bezpečnostního výzkumu, které mohou být vyňaty). Cílem je bojovat proti podvodům a dezinformacím tím, že bude zřejmý původ média.
- AI systémy používané pro biometrický dohled (například kamery s rozpoznáváním obličeje) či rozpoznávání emocí musí, pokud je to možné, lidi na svůj provoz upozornit. (Jak již bylo zmíněno, mnohé z těchto aplikací jsou zcela zakázány nebo jsou hodnoceny jako vysoce rizikové s přísnými podmínkami).
- Generativní AI modely (často nazývané základní modely, například rozsáhlé jazykové modely typu ChatGPT) mají některé specifické požadavky na transparentnost a poskytování informací. I když takový generativní model není zařazen mezi vysoce rizikové, jeho poskytovatel musí zveřejnit určité informace: například AI-generovaný obsah musí být označen a poskytovatel by měl zveřejnit souhrn chráněných dat použitých k učení modelu europarl.europa.eu. To má informovat uživatele a tvůrce o možném použití chráněného duševního vlastnictví v tréninkové sadě a zajistit dodržení práva EU na ochranu autorských práv europarl.europa.eu. Poskytovatelé generativních modelů by také měli bránit generování nelegálního obsahu, například budováním filtrů či ochranných opatření do modelu europarl.europa.eu.
Stručně řečeno, transparentnost je průřezovým tématem AI Act – ať už jde o systém s vysokým rizikem (s podrobnou dokumentací a informacemi pro uživatele), nebo o chatbot s nízkým rizikem (s jednoduchým oznámením „Jsem AI“), cílem je vnést světlo do „černých skříněk“ AI. To nejen posiluje uživatele a dotčené osoby, ale i podporuje odpovědnost: pokud něco selže, existuje dokumentace o tom, co mělo AI dělat a jak byla vyvinuta.
Obecné AI (základní modely): Významným doplněním v konečné verzi zákona je sada pravidel pro obecné AI modely (GPAI) – jde o široce použitelné modely trénované na velkých datech (často formou samo-učebného procesu), které lze přizpůsobit různým úkolům artificialintelligenceact.eu. Příklady jsou velké jazykové modely, generátory obrazů nebo jiné „základní“ modely, které technologické společnosti staví a umožňují je ostatním využívat či dolaďovat. Zákon uznává, že i když tyto modely nejsou spojeny s konkrétním vysoce rizikovým použitím, mohou být později začleněny do systémů s vysokým rizikem nebo mít systémové dopady. Proto stanovuje povinnosti pro poskytovatele GPAI modelů, i když zatím nejsou nasazeny v koncovém produktu.Všichni poskytovatelé GPAI modelů musí zveřejnit technickou dokumentaci o svém modelu (popis vývojového procesu a schopností) a poskytnout pokyny vývojářům, kteří budou model dále používat, jak postupovat v souladu se zákonem artificialintelligenceact.eu artificialintelligenceact.eu. Dále musí respektovat autorská práva – zajistit, že tréninková data splňují požadavky autorského práva EU – a zveřejnit souhrn použitých dat k trénování (alespoň na úrovni hlavních zdrojů) artificialintelligenceact.eu. Tyto požadavky mají přinést větší transparentnost do dosud velmi neprůhledného světa velkých AI modelů.
Zásadní je, že zákon rozlišuje mezi proprietárními modely a těmi, které jsou zveřejněny pod open source licencí. Poskytovatelé open source GPAI modelů (jejichž váhy i kód jsou volně dostupné) mají zmírněné povinnosti: stačí splnit požadavky na autorská práva a transparentnost ohledně tréninkových dat, nemusí poskytovat úplnou technickou dokumentaci či pokyny pro použití – pokud jejich model nepředstavuje „systémové riziko“ artificialintelligenceact.eu. Tato výjimka byla navržena tak, aby nedošlo k potlačení otevřených inovací a výzkumu. Pokud by však otevřený model byl mimořádně schopný a mohl by mít zásadní dopady, nevymkne se dozoru jen díky open source licenci.
Zákon definuje „GPAI modely se systémovým rizikem“ jako velmi pokročilé modely, které mohou mít dalekosáhlé společenské důsledky. Jedním z kritérií je, pokud trénování modelu vyžadovalo více než 10^25 výpočetních operací (FLOPs) – což je ukazatel určený k identifikaci pouze těch nejnáročnějších a nejvýkonnějších modelů artificialintelligenceact.eu. Poskytovatelé takových vysoce výkonných modelů musí provádět další hodnocení a testování (včetně adversariálního testování na zranitelnosti) a aktivně předcházet nalezeným systémovým rizikům artificialintelligenceact.eu. Také mají povinnost hlásit závažné incidenty spojené s jejich modelem Evropskému úřadu pro AI a národním orgánům a zajistit silnou kybernetickou ochranu modelu i jeho infrastruktury artificialintelligenceact.eu. Tato opatření předvídají obavy kolem pokročilých AI (například GPT-4 a další), které by mohly způsobit rozsáhlé škody (například umožnění nových forem dezinformací, kybernetických útoků atd.). Zákon v podstatě říká: pokud vytváříte nejmodernější obecnou AI, musíte být extra opatrní a spolupracovat s regulátory, abyste rizika udrželi pod kontrolou europarl.europa.eu artificialintelligenceact.eu.
Aby byla posílena spolupráce, zákon stanovuje, že dodržování Kodexů chování nebo připravovaných harmonizovaných norem může být cestou, jak GPAI poskytovatelé splní své povinnosti artificialintelligenceact.eu. EU ve skutečnosti připravuje Kodex praxe AI jako průběžný standard pro celý sektor digital-strategy.ec.europa.eu. Úřad pro AI vede tuto snahu o to, aby vývojáři základních modelů věděli, jak zákonu prakticky vyhovět digital-strategy.ec.europa.eu. Kodex je dobrovolný, ale může sloužit jako „bezpečný přístav“ – pokud ho firma dodržuje, regulátoři mohou předpokládat jejich soulad se zákonem.
Celkově povinnosti dle AI Act pokrývají celý životní cyklus AI: od návrhu (hodnocení rizik, kontrola dat) přes vývoj (dokumentace, testování) po nasazení (transparentnost vůči uživatelům, dohled) a následné sledování (monitoring, hlášení incidentů). Soulad bude vyžadovat multidisciplinární úsilí – vývojáři AI nebudou potřebovat jen datové vědce a inženýry, ale také právníky, manažery rizik i etiky, aby bylo zajištěno splnění všech požadavků. Dále se zaměříme na to, jak bude vyžadováno a vymáháno dodržování těchto pravidel a co se stane, když firmy selžou.
Mechanismy vymáhání, orgány dohledu a sankce
Pro dohled nad touto rozsáhlou regulací zřizuje EU AI Act víceúrovňovou strukturu správy a dohledu. Zahrnuje vnitrostátní orgány v každém členském státě, nový centrální Evropský úřad pro AI a koordinaci prostřednictvím AI Boardu. Přístup k vymáhání je částečně inspirován zkušeností EU s regulačními režimy bezpečnosti výrobků a ochrany dat (zejména systémem národních úřadů a evropské rady jako u GDPR).
Národní příslušné orgány: Každý členský stát EU musí určit jeden nebo více národních orgánů odpovědných za dozor nad AI aktivitami (často označované jako orgány pro dozor nad trhem v oblasti AI) orrick.com. Tyto orgány budou vykonávat každodenní šetření souladu – například kontrolovat, zda poskytovatelův vysoce rizikový AI produkt na trhu splňuje požadavky, nebo vyšetřovat stížnosti veřejnosti. Disponují pravomocemi podobnými těm, které vyplývají ze současné legislativy o bezpečnosti výrobků (nařízení (EU) 2019/1020): mohou požadovat informace od poskytovatelů, provádět kontroly a dokonce nařídit stažení nesouladných AI systémů z trhu orrick.com. Také monitorují trh, zda se na něm neobjevují AI systémy, které by mohly obcházet pravidla nebo představovat nepředvídaná rizika. Pokud je AI systém shledán nesouladným nebo nebezpečným, mohou národní orgány uložit pokuty nebo nařídit jeho stažení/odvolání.
Každá země pravděpodobně svěří tuto roli již existujícímu regulátorovi nebo vytvoří nový úřad (někteří navrhují, že dozor nad AI by mohly převzít úřady pro ochranu osobních údajů, nebo sektoroví regulátoři jako agentury pro zdravotnické prostředky v případě medicínské AI atd., aby zužitkovaly odborné znalosti). Do srpna 2025 jsou členské státy povinny mít své AI regulátory určeny a v provozu artificialintelligenceact.eu a do roku 2026 musí každý stát zřídit alespoň jeden Regulatorní sandbox pro AI (kontrolované prostředí pro testování inovativní AI pod dohledem) artificialintelligenceact.eu.
Evropský AI úřad: Na úrovni EU vznikl nový subjekt nazývaný AI úřad, který je součástí Evropské komise (konkrétně pod DG CNECT) artificialintelligenceact.eu. AI úřad je ústřední regulátor, se zaměřením na AI obecného určení a přeshraniční otázky. Podle nařízení má AI úřad výhradní pravomoc vynucování pravidel pro poskytovatele GPAI modelů orrick.com. To znamená, že pokud OpenAI, Google nebo jakákoli jiná firma poskytuje rozsáhlý AI model využívaný napříč Evropou, AI úřad je hlavním dohledem, který zajistí plnění jejich povinností (technická dokumentace, zmírňování rizik atd.). AI úřad může požadovat informace a dokumentaci přímo od poskytovatelů foundation modelů a vyžadovat nápravná opatření v případě nedodržení pravidel orrick.com. Také dohlíží na případy, kdy je stejná společnost poskytovatelem foundation modelu i deployerem vysoce rizikového systému na něm postaveného – aby se zajistilo, že nepřehlédnou povinnosti mezi národní a evropskou úrovní orrick.com.
Nad rámec vynucování zastává AI úřad širokou roli v monitorování trendů v AI a systémových rizik. Má za úkol analyzovat vznikající vysoce rizikové nebo nepředvídané AI otázky (zejména týkající se GPAI) a může provádět hodnocení výkonných modelů artificialintelligenceact.eu. Úřad bude zaměstnávat expertní personál (Komise pro něj již najímá AI specialisty artificialintelligenceact.eu) a spolupracovat s nezávislým vědeckým panelem AI odborníků, kteří budou poskytovat technické poradenství artificialintelligenceact.eu. Významné je, že AI úřad bude vytvářet dobrovolné kodexy chování a metodická doporučení pro průmysl – bude tedy zdrojem nápovědy pro vývojáře AI (zvláště užitečné pro startupy/SMEs) artificialintelligenceact.eu. Bude spolupracovat s členskými státy na zajištění jednotného uplatňování pravidel a například pomáhat při společných šetřeních, pokud problém přesáhne hranice více států artificialintelligenceact.eu artificialintelligenceact.eu. Ve zkratce, AI úřad je pokus EU o vytvoření centralizovaného regulátora AI na doplnění národních orgánů – podobně, jako funguje Evropský sbor pro ochranu osobních údajů pro GDPR, ovšem s přímějšími pravomocemi v některých oblastech.
AI Board: Nařízení zřizuje nový Evropský výbor pro umělou inteligenci složený ze zástupců AI orgánů všech členských států (a Evropského inspektora ochrany údajů a AI úřadu jako pozorovatelů) artificialintelligenceact.eu. Úkolem výboru je zajistit jednotné provádění v celé Evropě – budou sdílet osvědčené postupy, případně vydávat stanoviska či doporučení a koordinovat přeshraniční strategie vynucování artificialintelligenceact.eu. AI úřad působí jako sekretariát tohoto výboru, organizuje zasedání a pomáhá s přípravou dokumentů artificialintelligenceact.eu. Výbor může například usnadňovat tvorbu standardů nebo projednávat nezbytné aktualizace příloh nařízení v průběhu času. Jde o mezivládní fórum, které zajistí, že všichni budou na stejné vlně a bude bránit rozdělení jednotného evropského trhu s AI kvůli rozdílnému vynucování.
Sankce za nedodržení: AI Act zavádí vysoké pokuty za porušení, v duchu odrazující strategie podle vzoru GDPR. Existují tři úrovně správních pokut:
- Za nejzávažnější porušení – konkrétně používání zakázaných AI praktik (nepřijatelná rizika, která jsou zakázána) – může pokuta dosáhnout až 35 milionů eur nebo 7 % celosvětového ročního obratu, podle toho, která varianta je vyšší orrick.com. Jde o velmi vysokou horní hranici pokuty (výrazně vyšší než maximálních 4 % z obratu v GDPR). Ukazuje to, jak vážně EU bere např. vývoj tajných systémů pro sociální skóring nebo nelegální biometrický dohled – jde o nejzávažnější korporátní delikty.
- Za ostatní porušení požadavků nařízení (např. nesplnění povinností pro vysoce rizikovou AI, nezaregistrování systému, neprovedení opatření na transparentnost) je maximální pokuta 15 milionů eur nebo 3 % celosvětového obratu orrick.com. Sem spadá většina nedostatků v dodržování předpisů: například pokud firma opomene provést posouzení shody nebo zatajila údaje před regulátory – jedná se o tuto kategorii.
- Za poskytnutí nesprávných, zavádějících nebo neúplných informací regulátorům (například v průběhu šetření nebo při odpovědi na požadavek na soulad), může dosáhnout pokuta až 7,5 milionu eur nebo 1 % obratu orrick.com. Tato nižší úroveň sankcí cílí zejména na obstrukce či nespolupráci s úřady.
Důležité je, že zákon stanovuje, že SMEs (malé a střední podniky) by měly být pokutovány spíše v dolních pásmech rozmezí, zatímco velké společnosti mohou dostat pokutu blíže horní hranici orrick.com. Jinými slovy, částky 35 mil./7 % nebo 15 mil./3 % představují maxima; regulátoři mají volnost a očekává se, že zohlední velikost a finanční kapacitu provinilce. SME tak může obdržet pokutu v řádu milionů eur namísto procenta obratu, aby nedošlo k nepřiměřeným dopadům, zatímco velké technologické firmy mohou obdržet pokutu přepočítanou podle obratu, aby byla skutečně postihující orrick.com.
Tyto sankční ustanovení jsou vynutitelná od 2. srpna 2025 pro většinu předpisů orrick.com. (Od tohoto data platí kapitola o správě a články o sankcích.) Pro nové povinnosti týkající se AI modelů obecného určení však sankce začínají platit až o rok později, od 2. srpna 2026, což ladí s termínem, kdy se požadavky na foundation modely stávají povinnými orrick.com. Toto časové rozlišení dává poskytovatelům foundation modelů čas na přípravu.
Z hlediska postupu a záruk: společnosti budou mít práva jako právo být vyslyšeny před rozhodnutím o sankci a důvěrnost citlivých informací poskytnutých regulátorům je nařízena orrick.com. Akt také uvádí, že na rozdíl od některých jiných unijních zákonů Komise (prostřednictvím AI Office) nemá všeobjímající pravomoci k provádění neohlášených kontrol (“dawn raids”) nebo k samostatnému vynucení svědecké výpovědi – s výjimkou situací, kdy dočasně převezme roli národního úřadu orrick.com. To odráží určité limity, pravděpodobně s cílem uklidnit obavy z příliš velkého zásahu státu.
Enforcementní role AI Office: Evropská komise může prostřednictvím AI Office sama zahajovat vymáhací kroky v některých případech, zejména u AI systémů všeobecného určení. Jedná se o nový mechanismus vymáhání – historicky Komise přímo nevynucovala pravidla pro výrobky (její role byla spíše dohledová a koordinační), s výjimkou soutěžního práva. S AI Aktem získává Komise praktičtější nástroje pro vymáhání. AI Office může vyšetřovat poskytovatele základních modelů, vyžadovat rozsáhlé soubory dokumentace (podobně jako v antimonopolních šetřeních) orrick.com a dokonce provádět simulované kybernetické útoky nebo testování AI modelu za účelem jeho bezpečnosti artificialintelligenceact.eu. Firmy podrobené takovému šetření mohou zažít něco podobného antimonopolnímu řízení, což, jak upozorňují analytici Orricku, může být velmi náročné kvůli požadavkům na tisíce dokumentů včetně interních návrhů orrick.com. Zkušenosti Komise s velkými vyšetřováními napovídají, že i ve velkých AI případech nasadí značné prostředky. Zvyšuje to sice požadavky na dodržování pravidel AI vývojáři, ale také zdůrazňuje odhodlání EU centrálně vymáhat pravidla pro základní AI, která přesahuje hranice států.
Dohled nad AI s vysokým rizikem: U tradičních “high-risk” AI (například bankovní kreditní scoring nebo využití AI policií ve městech) zůstávají hlavními vykonavateli práva národní úřady. AI Office a AI Board je však budou podporovat, zejména pokud se objeví problémy ovlivňující více zemí. Akt umožňuje společná šetření, kdy několik národních regulátorů spolupracuje (s podporou AI Office), pokud rizika AI systému zasahují do více států artificialintelligenceact.eu. Tím se například zabrání tomu, aby se s AI používanou po celé EU vyrovnávala pouze jedna země a ostatní zůstaly mimo.
Nechybí ani mechanismus pro odvolání a kontrolu rozhodnutí: společnosti se mohou proti rozhodnutím odvolat k národním soudům (nebo v případě rozhodnutí Komise až k unijním soudům) a Akt bude pravidelně přezkoumáván. Do roku 2028 musí Komise zhodnotit, jak dobře funguje AI Office a nový systém artificialintelligenceact.eu, a každých pár let přezkoumat, zda je třeba aktualizovat kategorie či seznamy rizik (Příloha III atd.) artificialintelligenceact.eu. Tento adaptivní přístup k regulaci je zásadní, protože vývoj AI technologií je extrémně rychlý – EU tak chce pravidla postupně zpřesňovat podle potřeby.
Stručně řečeno, vymáhání AI Aktu bude probíhat prostřednictvím sítě regulátorů, kde Evropský AI Office bude ústředním bodem pro metodiku, jednotnost a přímý dohled nad základními modely. Pokuty jsou vysoké – na papíře jde o některé z nejvyšších v technologických regulacích – což jasně dává najevo, že nedodržení pravidel není přípustné. Organizace by měly zakomponovat důraz na compliance už při vzniku AI projektů, místo aby riskovaly takovéto sankce nebo zastavení svých AI systémů.
Dopady v jednotlivých sektorech a příklady užití
Dopady AI Aktu se liší podle odvětví, protože zákon považuje některé sektory za vysoce rizikové. Následuje přehled, jak ovlivní klíčové sektory – zdravotnictví, finance, bezpečnost a vzdělávání:
- Zdravotnictví a zdravotnické prostředky: AI má v medicíně obrovský potenciál (od diagnostiky nemocí po robotickou chirurgii), ale podle Aktu jsou tyto případy často zařazeny mezi vysoce rizikové. Každá AI komponenta regulovaného zdravotnického prostředku bude podle výchozího režimu vždy vysoce riziková emergobyul.com. Například AI radiologický nástroj pro analýzu rentgenů nebo algoritmus navrhující léčbu musí splňovat požadavky AI Aktu navíc k existující zdravotnické regulaci. Poskytovatelé takových AI budou muset projít náročnými posouzeními shody (pravděpodobně navázanými na postupy označení CE zdravotnických prostředků). Budou muset zajistit klinickou kvalitu a bezpečnost, což je v souladu s požadavky Aktu na přesnost a mitigaci rizik. Pacienti i zdravotníci tak z těchto záruk budou profitovat – AI bude pravděpodobně spolehlivější a její limity transparentní. Vývojáři však budou čelit vyšším nákladům na výzkum/vývoj a administrativní zátěži kvůli prokazování shody. Proto může zpočátku dojít ke zpomalení uvádění AI inovací do zdravotnictví v EU, než projdou regulačním procesem goodwinlaw.com. Na druhou stranu Akt podporuje experimentování pomocí regulačních sandboxů: nemocnice, startupy a regulátoři mohou spolupracovat na kontrolovaných testech AI (např. AI diagnostického asistenta) pro sběr důkazů o bezpečnosti a účinnosti před širším nasazením. Každý členský stát bude muset mít do roku 2026 nejméně jeden AI regulační sandbox i pro zdravotnictví artificialintelligenceact.eu. Celkově lze očekávat, že AI ve zdravotnictví EU bude bezpečnější a standardizovanější, ale výrobci musí pečlivě řešit compliance, aby se vyhnuli prodlevám při uvádění život zachraňujících inovací na trh.
- Finance a pojišťovnictví: Akt řadí mnohé AI ve finančních službách mezi vysoce rizikové. Zejména AI systémy určené pro posuzování úvěruschopnosti – např. algoritmy rozhodující, zda žadatel získá půjčku či s jakým úrokem – jsou jako high-risk vyjmenovány, protože mohou ovlivnit přístup k základním službám digital-strategy.ec.europa.eu. Banky a fintechy tedy budou muset zajistit, aby jejich AI pro schvalování půjček, scoring či oceňování pojištění byly nediskriminační, vysvětlitelné a auditovatelné. Budou povinny vést dokumentaci, jak AI modely vznikly (například prokazovat, že náhodně nepenalizují určité etnické skupiny či lokality, což se u některých modelů stávalo). Zákazníci budou mít také větší transparentnost: Akt sice přímo nezavádí právo člověka na vysvětlení jako GDPR, ale požadavek jasných informací znamená, že věřitelé by měli žadatelům sdělit, že rozhoduje AI, a v obecné rovině jak model funguje digital-strategy.ec.europa.eu. Dalším případem je AI pro detekci podvodů a praní špinavých peněz, kde AI může být buď vysoce riziková (pokud ovlivní základní práva), nebo podléhat mírným požadavkům na transparentnost. Finanční instituce budou potřebovat silné governance procesy pro AI – tzn. rámec řízení rizik modelů rozšířený o požadavky AI Aktu. Mohou vzniknout počáteční náklady (např. za testování biasu nebo doplnění dokumentace), ale výsledkem by měla být férovější a důvěryhodnější AI ve financích. Zákazníci mohou očekávat například menší bias v schvalování úvěrů a vědomí, že rozhodující AI je pod dohledem regulátorů. Pojišťovny využívající AI pro výpočty rizikovosti (nestandartně zdraví/život) rovněž spadají pod high-risk artificialintelligenceact.eu a musí hlídat nedovolenou diskriminaci (například aby AI svévolně nezvyšovala pojistné na základě chráněných zdravotních znaků). Celkově Akt tlačí na větší transparentnost a odpovědnost AI ve financích a měl by posilovat důvěru zákazníků v produkty využívající AI.
- Policie a veřejná bezpečnost: Jde o oblast, kde je Akt obzvláště opatrný, protože jsou zde klíčová občanská práva. Některé policejní AI aplikace jsou zcela zakázány jako nepřijatelné: například “sociální skóring” lidí či prediktivní policing, který profiluje jednotlivce jako možné pachatele, je zakázán artificialintelligenceact.eu artificialintelligenceact.eu. Stejně tak je dlouze diskutované živé rozpoznávání obličejů na veřejnosti policií zakázáno s výjimkou krajní nouze (a i tehdy s přísným povolením) europarl.europa.eu. To znamená, že evropské policejní složky nemohou jen tak zavádět živé CCTV rozpoznávání tváří – což se jinde děje – kromě velmi konkrétně vymezených, závažných případů s povolením soudu. Další policejní technologie spadají pod high-risk, takže použít je lze, ale pod dohledem. Například AI analyzující data o zločinnosti pro rozmisťování hlídek, nebo hodnotící důvěryhodnost důkazů či podezřelých, je rovněž vysoce riziková digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policie či pohraniční úřady tedy musí dělat hodnocení dopadu na základní práva a zajistit, že rozhodující slovo vždy náleží člověku. Vznikne centrální unijní databáze všech policejních high-risk AI systémů, která má zajistit transparentnost – byť některé údaje mohou být z podstaty citlivé. Pro policejní úřady znamená Akt více byrokracie (dokumentace, schvalování notifikovaným subjektem u některých nástrojů atd.) a zpomalení adopce AI, nicméně smyslem je předcházet zneužití – zabránit např. situaci, kdy černá skříňka algoritmu určuje trest či seznam prověřovaných osob na hranici bez možnosti nápravy. Zvláštní dopad má Akt i na technologie analýzy emocí v pracovním nebo policejním prostředí: AI, která tvrdí, že rozpozná emoce při policejním výslechu, pracovním pohovoru nebo při školní zkoušce, je kvůli své invazivnosti a nespolehlivosti zakázána digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Policie v EU tedy nejspíš zůstane u AI napomáhající s analýzou dat či rutinními úkony pod lidským dohledem a povolí si distanc od dystopičtějších AI praktik, které v jiných částech světa testují. Akt se tak snaží najít rovnováhu: umožnit AI bojovat se zločinem a zvyšovat bezpečnost, ale nikoliv na úkor základních práv a svobod.
- Vzdělávání a zaměstnanost: AI používaná ve vzdělávání, například software pro hodnocení testů nebo doporučení studentů, je vysoce riziková, protože může ovlivnit budoucnost žáků digital-strategy.ec.europa.eu. Školy nebo ed-tech firmy využívající AI k hodnocení slohovek nebo detekci podvodů musí zajistit její přesnost a nepředpojatost. Vadná AI, která špatně hodnotí určité skupiny žáků nebo selže během zkoušky, může mít zásadní dopad, proto takový systém spadá mezi high-risk. V praxi to znamená, že ministerstva školství i univerzity budou muset přísněji posuzovat AI dodavatele a vést dokumentaci k algoritmům ovlivňujícím přijetí a známkování. Studenti musí být informováni, pokud je použita AI (transparentnost) a mít možnost odvolání – Akt na transparentnost a lidský dohled klade velký důraz. V kontextu zaměstnání spadá AI pro nábor i HR (třídění životopisů, výběr kandidátů, sledování výkonu zaměstnanců) rovněž mezi high-risk digital-strategy.ec.europa.eu. Firmy využívající nástroje s AI musí dbát na to, že jejich produkty byly od počátku navrženy a testovány na férovost (například, aby neprodukovaly genderově zkreslené výstupy při výběru zaměstnanců). Akt může vést k přerodu trhu s HR technologií: některé automatizované náborové platformy budou muset zásadně přepsat své procesy či dokumentaci, jinak je nebude možné legálně použít v EU, a firmy proto mohou přejít zpět k většímu zapojení personalistů, pokud jejich AI nebude splňovat požadavky. Minimálně uchazeči v EU asi začnou ve výběrových řízeních potkávat věty typu “Vaše žádost může být zpracována pomocí AI” a budou si moci vyžádat (nebo očekávat) vysvětlení rozhodnutí – to je součást transparentnosti. Pozitivní je větší spravedlnost a odpovědnost při náboru – AI se nebude stávat neviditelným strážcem bran, ale zůstane pod kontrolou. Výzvou pro HR je integrovat compliance bez zbytečného zdržování nebo komplikování najímacího procesu. Zde mohou pomoci i regulační sandboxy: HR start-up může svůj AI assessment testovat v sandboxu s regulátory a získat zpětnou vazbu, jak splnit požadavky férovosti před větším nasazením na trhu.
Ve zbývajících sektorech, které Akt přímo nejmenuje, záleží účinek na konkrétních případech. Například kritická infrastruktura (energetické sítě, řízení dopravy), která AI používá pro optimalizaci provozu, bude high-risk pokud její selhání může ohrozit bezpečnost artificialintelligenceact.eu. Dodavatelé veřejných služeb či provozovatelé dopravy tedy budou muset certifikovat své AI systémy pro řízení. Marketingová a sociální média AI (algoritmy doporučení obsahu, cílená reklama) spadají spíše do kategorie minimálního či omezeného rizika – přímo pod AI Akt tolik nespadají, byť jiné zákony (např. DSA) zde mohou platit.
Jedním z významných odvětví jsou spotřební produkty a robotika – pokud je AI integrována do spotřebitelských produktů (hračky, spotřebiče, vozidla), do hry vstupují zákony o bezpečnosti výrobků. Například hračka poháněná umělou inteligencí, která komunikuje s dětmi, může být vysoce riziková, zejména pokud by mohla nebezpečně ovlivnit chování dětí europarl.europa.eu. Zákon konkrétně zakazuje hračky, které využívají hlasovou umělou inteligenci k povzbuzování škodlivého chování u dětí europarl.europa.eu. Firmy vyrábějící hračky a hry používající umělou inteligenci tak musí být velmi opatrné, co se týče obsahu i funkcí.
Obecně platí, že odvětví pracující s lidskými životy, příležitostmi nebo právy čelí nejvýznamnějším novým pravidlům. Tyto sektory pravděpodobně čeká kulturní posun směrem k „etice a compliance AI“ – běžnou se stanou role jako AI compliance officer nebo etický kontrolor. Mohou sice přijít počáteční zpomalení během auditování a vylepšování systémů, ale dlouhodobě by v těchto oblastech mohla vzniknout vyšší veřejná důvěra v AI. Například pokud rodiče věří, že AI hodnotící jejich dítě je vhodně monitorována z hlediska spravedlnosti, mohou být technologiím ve vzdělávání otevřenější.
Dopad na podniky: malé a střední podniky, startupy a globální společnosti
EU AI Act ovlivní organizace všech velikostí, od pružných startupů po nadnárodní technologické giganty – zejména všechny, kdo nabízejí AI produkty nebo služby v Evropě. Náklady a povinnosti spojené s compliance nebudou malé, ale zákon obsahuje opatření ke zmírnění dopadů na menší podniky a jeho extrateritoriální působnost znamená, že i globální společnosti mimo EU musí věnovat pozornost nové legislativě.
Malé a střední podniky (MSP): MSP a startupy jsou často hlavními inovátory v oblasti AI – odhaduje se, že až 75 % AI inovací pochází od startupů seniorexecutive.com. EU si byla vědoma toho, aby tyto hráče nové povinnosti nezadusily, proto zákon obsahuje některá prorůstová ustanovení. Jak bylo zmíněno, pokuty za porušení pravidel jsou odstupňovány, aby byly pro MSP nižší v absolutních číslech orrick.com, což malým firmám zabrání v naprosté ekonomické likvidaci. Zákon dále nařizuje, aby regulační pískoviště byla zdarma a s prioritním přístupem pro MSP thebarristergroup.co.uk. Tato pískoviště (v provozu do roku 2026 v každém členském státě) umožní startupům testovat AI systémy pod dohledem a získávat zpětnou vazbu ohledně compliance bez strachu z postihů během testovací fáze. Je to příležitost ladit produkt ve spolupráci s regulátory – compliance se tak může stát méně překážkou a více společným navrhováním řešení.
Evropská komise navíc spustila i „AI Pact“ a další podpůrné iniciativy spolu se zákonem digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. AI Pact je dobrovolný program, který zve firmy k včasnému plnění požadavků zákona a sdílení osvědčených postupů, a to s důrazem na podporu zejména menších subjektů mimo velké technologické firmy. Zákon stanoví také povinnost Úřadu pro AI poskytovat návody, šablony a zdroje pro MSP artificialintelligenceact.eu. Můžeme tak očekávat například vzorové plány řízení rizik nebo kontrolní seznamy pro dokumentaci, které může využít i 10členný startup bez nutnosti mít celý právní tým.
Přes tyto podpory řadu startupů stále trápí zátěž s compliance. Požadavky (zmíněné výše), jako jsou systémy řízení kvality nebo posuzování shody, mohou být pro malou firmu s omezenými zdroji náročné. Objevují se obavy, že inovace se zpomalí nebo přesune jinam: pokud bude příliš těžké uvést AI produkt na trh v EU, startup může začít jinde (například v USA) nebo investoři upřednostní regiony s volnějšími pravidly seniorexecutive.com seniorexecutive.com. Jak řekl jeden CEO technologické firmy, jasná pravidla dávají důvěru, ale příliš přísné předpisy „mohou vytlačit skvělý, hodnotný výzkum jinam.“ seniorexecutive.com. Někteří zakladatelé startupů považují zákon za příliš široký a zatěžující a obávají se, že začínající firmy budou mít s náklady na compliance potíže a raději se přesunou mimo EU seniorexecutive.com.
Aby se tomu zabránilo, politici v EU dali najevo, že standardy a postupy budou co nejvíce zjednodušené. Například může být vytvořen standardizovaný modul pro posuzování shody, kterým se mohou malí poskytovatelé řídit, nebo služby certifikace s rozdělením nákladů mezi více MSP. Odborníci dokonce navrhují i možnost „compliance grantů“ nebo dotací – tedy financování na pokrytí nákladů spojených s plněním nových požadavků seniorexecutive.com. Pokud se podobné pobídky skutečně zavedou (ať už na úrovni EU nebo národní), bude to pro aktéry velká úleva.
Každopádně by malé a střední podniky měly začít tím, že zmapují své AI systémy do příslušných kategorií rizik a zaměří se na ty vysoce rizikové. Mnoho AI startupů možná zjistí, že jejich produkt je minimální nebo omezené riziko, což znamená, že potřebují pouze přidat určité deklarace, nikoli vytvářet kompletní compliance program. U těch ve vysoce rizikových oblastech (například u startupů vyvíjejících AI pro zdravotnictví či HR nástroje) bude zásadní včasné zapojení regulátorů (prostřednictvím sandboxů nebo konzultací). Zákon přímo podporuje „prorůstový přístup“ při aplikaci – regulátoři mají brát ohled na potřeby menších hráčů a hlavně v počáteční fázi neuplatňovat plošně přísný sankční režim seniorexecutive.com. Prakticky lze tedy očekávat určitou přechodnou fázi, kdy budou firmám při snaze o plnění pravidel spíše radit než okamžitě pokutovat.
Globální a neevropské společnosti: Podobně jako GDPR, i AI Act má extrateritoriální dosah. Pokud je AI systém uveden na trh EU nebo je jeho výstup využíván v EU, mohou pravidla platit bez ohledu na místo poskytovatele artificialintelligenceact.eu. To znamená, že americké, asijské či jiné mezinárodní firmy nemohou AI Act přehlížet, mají-li zákazníky nebo uživatele v Evropě. Například firma ze Silicon Valley prodávající AI nástroj na nábor zaměstnanců evropským klientům bude muset zajistit, že tento nástroj odpovídá požadavkům EU (jinak jej jejich klienti nebudou moci použít legálně).
Pro velké globální technologické firmy (Google, Microsoft, OpenAI atd.) již AI Act ovlivňuje chování. Ještě před schválením zákona začaly některé firmy nabízet větší transparentnost nebo kontrolu ve svých AI produktech v očekávání regulace. Poskytovatelé generativní AI například pracují na nástrojích pro označování AI obsahu a několik z nich zveřejnilo informace o trénovacích datech a omezeních modelů v reakci na tlak EU. Objevuje se názor, že plnění požadavků AI Actu se může stát konkurenční výhodou nebo známkou kvality – podobně jako produkty označené „GDPR-kompatibilní“ jsou vnímány jako šetrné k soukromí, AI produkty označené „EU AI Act-compliant“ mohou být vnímány jako důvěryhodnější i mimo Evropu.
Globální společnosti však musí vyvažovat různé jurisdikce. Pravidla EU se nemusí plně shodovat s připravovanou regulací v USA. Některé americké státy či federální směrnice mohou být v rozporu nebo požadovat odlišné reportování. Mezinárodní firmy proto mohou zvolit standardizaci na nejpřísnější režim (často právě ten evropský), aby měly jednotný přístup pro celý svět – přesně to se stalo i u GDPR, kdy řada firem rozšířila GDPR práva globálně. AI poskytovatelé mohou kvůli konzistenci zavést postupy podle EU i globálně (například označovat AI generovaný výstup pro celý svět). Zákon tak může nepřímo exportovat evropské „normy důvěryhodné AI“ do dalších trhů, pokud velké firmy tyto změny implementují plošně.
Přesto je tu riziko fragmentace: pokud jiné regiony zvolí odlišnou cestu, globální společnosti mohou být nuceny udržovat různé verze AI produktů pro různé trhy. Například AI aplikace může mít speciální „EU režim“ s více ochranami. Dlouhodobě je to ale neefektivní a vznikne tlak na mezinárodní sladění pravidel (více v další části).
Z pohledu firemní strategie budou velké firmy pravděpodobně vytvářet speciální AI compliance týmy (pokud je ještě nemají), které budou jejich AI systémy kontrolovat podle požadavků AI Actu. Pravděpodobně se objeví i nové třetí strany – firmy nabízející AI audity a certifikační služby – vznikne tak nový ekosystém, podobně jako v oblasti kyberbezpečnosti, na který se obrátí jak velké, tak střední společnosti dříve, než je přijde kontrolovat oficiální regulátor.
Další dopad se týká investic: jak VC investoři, tak firemní zákazníci budou provádět due diligence ohledně souladu s AI Actem. Startupy se mohou od investorů dočkat otázky: „Máte hotové vyhodnocení rizik podle AI Actu? Jste v sandboxu, nebo máte plán na získání označení CE, pokud bude potřeba?“ – podobně jako se soulad s ochranou soukromí stal po GDPR položkou na checklistu při investičních kolech. Firmy, které mohou prokázat soulad s AI Actem, budou mít snadnější cestu k partnerstvím a prodejům v Evropě, zatímco ty, které jej nemohou doložit, mohou být vnímány jako rizikovější sázka.
Stručně řečeno, pro malé a střední podniky (SMEs) a startupy je tento zákon dvojsečnou zbraní – přináší jasnost a možná i konkurenční výhodu pro „zodpovědná AI“ řešení, ale zároveň zvyšuje laťku pro vstup na hřiště s vysokými sázkami. Pro globální společnosti může zákon efektivně nastavit de facto globální standard pro správu AI (podobně jako GDPR pro ochranu dat), a firmy budou muset tyto požadavky zahrnout do svých životních cyklů vývoje AI. EU doufá, že podporou důvěry prostřednictvím regulace ve skutečnosti podpoří adopci AI – podniky i spotřebitelé mohou mít větší důvěru v používání AI, pokud vědí, že je regulována. To však platí pouze tehdy, pokud je dodržování předpisů dosažitelné; jinak by se inovace mohly přesunout do méně regulovaných prostředí.
Dopady na inovace, investice do AI a mezinárodní sladění
EU AI Act rozpoutal rozsáhlou debatu o jeho širším dopadu na krajinu AI – potlačí inovace, nebo je naopak podpoří? Jak ovlivní globální správu AI? Zde jsou některé klíčové očekávané dopady:
Inovace: Brzda, nebo akcelerátor? Kritici tvrdí, že přísná pravidla zákona, zejména pro AI s vysokým rizikem, mohou zpomalit experimentální inovace, zejména u startupů, které pohání většinu průlomového vývoje seniorexecutive.com. Povinnosti spojené se souladností (dokumentace, posouzení atd.) mohou prodloužit vývojové cykly a odvést zdroje od čistého výzkumu a vývoje. Například tým zabývající se výzkumem AI by mohl strávit další měsíce ověřováním dat a psaním zpráv o souladu před uvedením produktu na trh. Objevují se obavy z možného „odlivu inovací“, kdy se špičkoví AI odborníci či firmy rozhodnou sídlit v regionech s menší regulací seniorexecutive.com. Pokud bude Evropa vnímána jako příliš složitá na regulaci, další přelomová AI může vzniknout v USA nebo Asii, a pak být upravena pro Evropu (nebo ji v Evropě vůbec nenabídnou).
Již nyní jsme byli svědky toho, že některé AI služby (zejména některé generativní AI aplikace) blokují uživatele z EU nebo oddalují vstup na trh v EU s odkazem na nejistoty kolem regulace. Pokud bude zákon vníchán jako příliš zatěžující, hrozí Evropě v dlouhodobém horizontu zaostávání v nasazení AI oproti liberálnějším prostředím.
Na druhou stranu, mnoho hlasů z odvětví věří, že jasná pravidla mohou inovace podpořit snížením nejistoty seniorexecutive.com. Zákon vytváří předvídatelné prostředí – firmy znají „pravidla silnice“ a mohou inovovat s jistotou, že pokud dodrží pokyny, jejich AI nebude později zakázána ani kritizována veřejností. Často zmiňovaný přínos je, že zákon zvýší důvěru veřejnosti v AI, což je klíčové pro její přijetí. Pokud občané věří, že AI je v Evropě prověřována z hlediska bezpečnosti a férovosti, mohou AI řešení ochotněji přijmout a trh tak poroste. Podniky možná budou ochotnější investovat do AI projektů, když mají opěrný rámec souladu, než aby se bály neregulovaného Divokého západu, který může vést ke skandálům či žalobám.
Podstata je, že zákon se snaží najít rovnováhu: zavádí určitá tření (dohled, zodpovědnost) s úmyslem, že přinese dlouhodobě udržitelnou inovaci místo krátkodobého živelného rozvoje. Zavedení sandboxů a zaměření na malé a střední firmy ukazuje, že si EU uvědomuje, že příliš mnoho tření = ztracené inovace, a aktivně se to snaží zmírnit.
Argumentuje se také tím, že etická AI inovace by se mohla stát konkurenční výhodou. Evropské firmy by se mohly specializovat na AI, která je transparentní a zaměřená na člověka už v návrhu, což jim dává náskok, protože po odpovědné AI ve světě roste poptávka. Už nyní je oblast AI etiky a compliance rostoucí sektor – od nástrojů na detekci zaujatosti až po platformy na dokumentaci modelů – poháněný mimo jiné očekávanými regulacemi jako je tato.
Investice do AI: V krátkodobém horizontu představují náklady na compliance novou „daň“ na vývoj AI, což by mohlo investory činit obezřetnějšími nebo je přimět alokovat prostředky právě na plnění požadavků souladu. Některé VC a private equity fondy se mohou vyhýbat startupům v silně regulovaných oblastech AI, pokud nemají jasný plán souladu (nebo pokud potenciál trhu nepřevýší náklady na compliance). Naopak můžeme vidět zvýšené investice do některých oblastí:
- RegTech pro AI: Firmy nabízející řešení pomáhající s dodržováním AI Actu (např. služby auditu AI, automatizace dokumentace, nástroje pro monitoring modelů) by mohly zažít investiční boom, jak poroste poptávka po jejich produktech.
- AI Assurance a standardy: Mohou se objevit investice do AI projektů, které splní či překročí regulační požadavky a tím vyniknou. Například AI model, který je prokazatelně vysvětlitelný a férový, by mohl zaujmout zákazníky i investory díky „compliance by design“.
Sama EU směřuje investice do AI výzkumu a inovací v souladu s důvěrou. Prostřednictvím programů jako Horizon Europe a Digital Europe Programme jsou finanční prostředky alokovány na AI projekty, které kladou důraz na transparentnost, robustnost a sladění s evropskými hodnotami. Veřejné financování je tedy využíváno k tomu, aby inovace pokračovala, ale po vedených kolejích.
Jedním z možných výsledků je, že některé AI segmenty budou v Evropě prosperovat (ty, které se snadno sladí s pravidly, jako zdravotnická AI, která může doložit bezpečnostní přínosy), zatímco jiné mohou zaostávat (např. AI pro moderaci obsahu na sociálních sítích, pokud bude považována za příliš rizikovou nebo složitou z pohledu souladu, jen hypoteticky). Také bychom mohli pozorovat posun od AI pro koncové zákazníky k řešením business-to-business – protože AI zaměřená na spotřebitele může přilákat více regulační pozornosti (zejména pokud může ovlivňovat chování), zatímco firemní AI používaná interně může být snazší na řízení souladu.
Globální sladění nebo fragmentace: Mezinárodně je na EU AI Act upřená velká pozornost. Skutečně se může stát šablonou, kterou si jiné demokracie přizpůsobí. Již nyní Brazílie schválila návrh zákona s EU-inspirovaným modelem založeným na hodnocení rizik cimplifi.com a například Kanada připravila zákon o AI (tzv. AIDA), zaměřený na vysoce dopadovou AI a zmírňování rizik cimplifi.com. Tyto snahy jsou ovlivněny přístupem EU. Pokud více jurisdikcí přijme podobné rámce, posuneme se směrem ke sladění – což je výhodné pro AI firmy, protože musí dodržovat méně rozdílných pravidel.
Ne všichni však jdou přesně stejnou cestou. Spojené království dosud zvolilo výslovně mírnější, principově založený přístup a preferuje vydávání doporučení prostřednictvím sektorových regulátorů místo jediné legislativy cimplifi.com. UK zdůrazňuje inovace a deklarovalo, že nechce přeregulovat začínající technologie. Později mohou přijmout vlastní AI Act, ale pravděpodobně bude méně předpisový než evropský. Japonsko a další signalizovaly měkčí přístup zaměřený na dobrovolnou správu a etické zásady namísto závazných pravidel.
Ve Spojených státech zatím neexistuje federální zákon o AI srovnatelný s evropským. Místo toho USA vydala nezávazný Blueprint for an AI Bill of Rights, který stanovuje obecné principy jako bezpečnost, nediskriminace, ochrana dat, transparentnost a lidské alternativy weforum.org, ale jedná se spíše o politický dokument než vymahatelný zákon. USA pravděpodobněji zavede sektorové regulace (např. FDA pro zdravotnická AI zařízení, finanční regulátoři pro AI v bankovnictví) a bude se opírat o stávající zákony pro témata jako diskriminace či odpovědnost. Na konci roku 2023 a v roce 2024 USA aktivitu zvýšily – Bidenova administrativa vydala Executive Order on AI (říjen 2023), který mimo jiné ukládá vývojářům velmi pokročilých modelů sdílet s vládou výstupy bezpečnostních testů a zabývá se AI v oblastech jako bio-bezpečnost a občanská práva. Jde však o exekutivní nařízení, nikoli legislativu. Kongres mezitím pořádá slyšení a připravuje návrhy zákonů, ale žádný dosud (k polovině roku 2025) nebyl přijat. Pravděpodobný scénář pro USA je „patchwork“: některé státy mají vlastní AI zákony (například pravidla pro transparentnost AI-generovaných deepfakes nebo nástroje na AI pohovory) a federální agentury dohlížejí nad dodržováním existujících zákonů (FTC sleduje neférové či klamavé AI praktiky, EEOC zaujaté AI při náboru atd.) místo jedné komplexní normy.
To znamená, že v krátkodobém horizontu čelí firmy roztříštěné regulační krajině: v EU přísný režim, v USA volnější (ale vyvíjející se) režim a jinde různé modely. Analýza médií Senior Executive předpovídá, že USA zůstanou u sektorové strategie, aby si zachovaly konkurenceschopnost, zatímco Čína bude pokračovat v přísnější kontrole a další země jako UK, Kanada či Austrálie se spíše uchýlí k flexibilnějším pokynům seniorexecutive.com. Tato odlišnost může představovat výzvy – firmy mohou muset své AI systémy přizpůsobovat každému regionu zvlášť, což je neefektivní a nákladné a může zpomalit globální nasazování AI, protože bude třeba ověřovat soulad s více rámci.
Pozitivní zprávou je, že probíhají aktivní snahy o mezinárodní koordinaci: EU a USA prostřednictvím Rady pro obchod a technologie mají pracovní skupinu věnující se AI, která se snaží najít společnou řeč (pracují například na AI terminologii a standardech). Skupina G7 zahájila v polovině roku 2023 hirošimský AI proces k diskusi o globální správě AI a jedním z nápadů bylo vytvořit etický kodex pro AI společnosti na mezinárodní úrovni. Organizace jako OECD a UNESCO stanovily principy AI, k nimž se mnohé státy (včetně USA, EU a dokonce i Číny v případě OECD) připojily – tyto principy se zaměřují na známé hodnoty (spravedlnost, transparentnost, odpovědnost). Doufá se, že by se mohly stát základem pro sladění regulací.
Z dlouhodobého hlediska někteří věří, že nakonec dojde ke sbližování na úrovni základních principů, i když se právní mechanismy budou lišit seniorexecutive.com. Například téměř všichni souhlasí, že AI by neměla být nebezpečná ani zjevně diskriminační – způsob, jakým budou tyto požadavky vymáhány, se může lišit, ale výsledek (bezpečnější a spravedlivější AI) je společným cílem. Je možné, že díky dialogu a mezinárodním dohodám dojde alespoň k částečné harmonizaci. Fragmentovaný začátek by tak mohl nakonec vést k jednotnějším normám seniorexecutive.com, zvlášť když se AI technologie globalizuje (v propojeném světě je těžké AI funkce geograficky omezit).
Lídrovství a konkurence v AI: Ve hře je také geopolitický rozměr. EU se prezentuje jako lídr v etické správě AI. Pokud její model získá celosvětový ohlas, může mít EU vliv na nastavování standardů (podobně jako tomu bylo s GDPR, který ovlivnil ochranu dat po celém světě). Pokud však bude Zákon vnímán jako překážka pro evropský AI průmysl a jiné regiony budou v AI rychleji růst, může být EU kritizována za to, že si sama způsobila konkurenční nevýhodu. Americké technologické firmy v mnoha oblastech umělé inteligence zatím vedou, Čína do AI masivně investuje. Evropa sází na to, že důvěryhodná AI v dlouhodobém horizontu zvítězí nad neregulovanou AI, ale to se teprve ukáže.
První indikace v roce 2025 ukazují na obojí: Některé AI firmy tvrdí, že evropská pravidla je motivují k lepší interní kontrole (pozitivum), jiné však některé služby v Evropě zastavily (negativum). Zároveň sledujeme zapojení mezinárodních firem do dialogu s evropskými regulátory – například velké AI laboratoře konzultují s EU způsoby, jak zavést značkování AI obsahu, což naznačuje, že Zákon již ovlivňuje návrh jejich globálních produktů.
Z investičního a výzkumného pohledu lze očekávat, že více AI výzkumu se zaměří na oblasti jako je vysvětlitelnost, snižování biasu, a ověřování výsledků – protože na to klade důraz i legislativa. EU do tohoto směru investuje značné prostředky a to může vést k průlomům, které AI učiní vnitřně bezpečnější a lépe regulovatelnou (např. nové metody pro interpretaci neuronových sítí). Pokud takové objevy nastanou, mohou být přínosem nejen pro Evropu, ale pro celý svět.
Souhrnně řečeno, AI Act EU je odvážný regulační experiment, který buď nastaví globální měřítko pro správu umělé inteligence, nebo – pokud bude špatně nastaven – riskuje izolaci evropského AI ekosystému. Nejpravděpodobněji ale výrazně ovlivní směr: inovace v oblasti AI se nezastaví, ale budou se muset přizpůsobit novým regulačním mantinelům. Firmy i investoři tomu přizpůsobují strategii – začleňují požadavky do vývoje produktů, kalkulují náklady AI v EU a někteří možná přesunou pozornost na méně rizikové aplikace či jiné trhy. Na globální úrovni jsme na rozcestí: bude svět následovat evropské vzory (a tedy směřovat k jednotnějším AI standardům), nebo se AI bude vyvíjet rozdílně podél odlišných regulačních filozofií? Příští roky, kdy Zákon EU nabude plné účinnosti a ostatní země zareagují, nám napoví.
Globální regulace AI: EU Act vs USA a Čína (a další)
EU AI Act nevzniká ve vzduchoprázdnu – je součástí širšího globálního posunu v řešení výzev spojených s AI. Srovnejme jej s přístupy Spojených států a Číny, dvou dalších AI supervelmocí s odlišnými regulačními filozofiemi, a uveďme i další příklady:
Spojené státy (Blueprint for an AI Bill of Rights & Emerging Policies): USA zatím zvolily méně centralizovaný, více principový přístup. V říjnu 2022 vydal Úřad Bílého domu pro vědu a technologie Blueprint for an AI Bill of Rights, což je sada pěti hlavních principů pro návrh a používání automatizovaných systémů weforum.org:
- Bezpečné a efektivní systémy – Američané by měli být chráněni před nebezpečnými nebo nefunkčními AI systémy (např. AI musí být testovaná a monitorovaná, aby bylo jisté, že je efektivní pro zamýšlené použití) weforum.org.
- Ochrana před algoritmickou diskriminací – AI systémy nesmí nespravedlivě diskriminovat a měly by být využívány férovým způsobem weforum.org. Toto navazuje na stávající zákony o občanských právech; v zásadě platí, že AI nesmí být zadní vrátka pro diskriminaci, která by byla v lidském rozhodování nezákonná.
- Ochrana osobních údajů – Lidé by měli mít kontrolu nad tím, jak jsou jejich data využívána v AI, a být chráněni před zneužitím dat weforum.org. Nejde zde o nový zákon o ochraně osobních údajů, ale o posílení pravidel, že AI nesmí porušovat soukromí a má používat minimum dat.
- Informování a vysvětlení – Lidé by měli být informováni, když je používán AI systém, a být schopni pochopit, proč systém učinil rozhodnutí, které je ovlivňuje weforum.org. Toto volá po transparentnosti a vysvětlitelnosti, podobně jako evropské požadavky na transparentnost.
- Lidská alternativa, zvážení a možnost zásahu – Měly by existovat možnosti opt-outu nebo lidského zásahu tam, kde je to vhodné weforum.org. Například pokud vám AI zamítne něco důležitého (například hypotéku), měli byste mít možnost odvolat se k člověku nebo požádat o přezkoumání.
Tyto principy se v mnohém shodují s cíli evropského AI Actu (bezpečnost, spravedlnost, transparentnost, lidský dohled), ale zásadně, AI Bill of Rights není zákon – jde o rámec politických doporučení, který není právně závazný weforum.org. Platí zatím hlavně pro federální úřady a ovlivňuje způsob, jakým stát nakupuje a využívá AI. Očekává se, že bude příkladem i pro soukromý sektor, a některé firmy se už k těmto principům přihlásily. Dodržování je však dobrovolné; na AI Bill of Rights nejsou přímo navázány žádné sankce.
Kromě toho USA spoléhají na stávající zákony, aby řešily nejzávažnější škody spojené s AI. Například Federální obchodní komise (FTC) varovala firmy, že může trestat neférová nebo klamavá jednání související s AI (například nepravdivá tvrzení o schopnostech AI, nebo použití AI, které zákazníkům škodí). Úřad pro rovné pracovní příležitosti (EEOC) řeší, jak se pracovní právo vztahuje na AI nástroje při náboru – např. pokud AI systematicky odmítá starší uchazeče, může to být v rozporu s antidiskriminačními zákony. Vymáhání v USA tedy probíhá, ale převážně přes obecné zákony, nikoli skrze speciální AI regulace.
Situace se však v USA začíná měnit. V letech 2023–2024 probíhají v Kongresu intenzivní debaty o regulaci AI, zejména v reakci na rychlý nástup generativní AI. Bylo předloženo několik návrhů zákonů (týkajících se například označování deepfake obsahu, transparentnosti AI nebo odpovědnostních rámců), ale zatím žádný neprošel. Hovoří se o zřízení federálního safety institutu pro AI nebo o nových pravomocích úřadů pro dohled nad AI. Je pravděpodobné, že v příštích letech USA přijmou konkrétnější AI regulace, ale zřejmě více cílené, než v případě všeobsahujícího evropského zákona. USA obvykle regulují podle jednotlivých sektorů – například AI ve zdravotnictví musí splnit požadavky FDA; ten už vydal pokyny pro „Software jako zdravotnický prostředek“, což zahrnuje i vybrané AI algoritmy. Další příklad: finanční regulátoři (jako CFPB nebo OCC) se zajímají o AI modely pro kreditní scoring a mohou využít existující finanční legislativu k prosazování férovosti.
Jedna oblast, kde USA postupují rozhodně, je AI spojená s národní bezpečností: nedávné výkonné nařízení vlády USA ukládá vývojářům pokročilých AI modelů povinnost sdílet výsledky bezpečnostních testů se státem, pokud mají modely dopad na národní bezpečnost (např. modelování nebezpečných biologických agens). Jde o specificky zaměřený přístup oproti EU, kde vyjma využití pro bezpečnostní složky zákon podobné výjimky neobsahuje.
Shrnuto, americký přístup je v současnosti mírnější a založený na principech, s důrazem na inovace a využití stávajících právních rámců. Firmy jsou motivovány (ale zatím ne nuceny) k dodržování etických zásad. Hlavní rozdíl proti EU je v tom, že EU ukládá tyto principy zákonem s audity a sankcemi, zatímco USA je prezentuje jako doporučení a spoléhá na tržní síly a širší legislativu. Zda se USA nakonec přiblíží EU (například vlastním AI Actem či sadou pravidel), zůstává otázkou. V USA zní hlasy volající po silnější regulaci kvůli konkurenceschopnosti a veřejné důvěře, ale také silná varování před přeregulováním, které by mohlo brzdit technologický průmysl. Pravděpodobně se prosadí kompromis: např. povinnost transparentnosti u klíčových AI systémů nebo certifikace AI pro citlivá použití bez plošné kategorizace rizik.
Čínské předpisy a standardy pro umělou inteligenci: Čína má velmi odlišný politický systém a její správa umělé inteligence odráží její priority: společenskou stabilitu, kontrolu informací a strategické vedení v oblasti AI. Čína rychle rozšiřuje svůj regulační rámec s přístupem, který je obzvláště přísný na obsah a způsob použití AI a často se realizuje prostřednictvím administrativních nařízení.
Klíčové prvky čínského přístupu zahrnují:
- Povinné přezkoumání a cenzura obsahu AI: V srpnu 2023 Čína zavedla Dočasná opatření pro služby generativní AI cimplifi.com. Tato pravidla vyžadují, aby jakákoliv veřejně nabízená generativní AI (například chatboti nebo generátory obrázků) zajišťovala, že obsah odpovídá základním socialistickým hodnotám a je zákonný a pravdivý. Poskytovatelé musí proaktivně filtrovat zakázaný obsah (cokoli, co by mohlo být považováno za podvratné, obscénní nebo jinak nelegální podle čínského cenzurního režimu). To znamená, že čínské AI firmy zabudovávají do svých systémů robustní moderaci obsahu. Pravidla také vyžadují označování AI-generovaného obsahu, pokud by mohl být zaměněn s realitou cimplifi.com. Velmi podobné jako požadavek EU na označování deepfake obsahu, ovšem v Číně je to formulováno jako nástroj k zabránění dezinformacím, které by mohly způsobit společenský neklid.
- Registrace algoritmů: Ještě před pravidly pro generativní AI měla Čína předpisy pro doporučovací algoritmy (v platnosti od začátku roku 2022). Firmy musely registrovat své algoritmy u Úřadu pro kyberprostor Číny (CAC) a poskytovat informace o tom, jak fungují. Tento centrální registr slouží k dohledu; úřady chtějí vědět, jaké algoritmy jsou používány, zvláště ty, které ovlivňují veřejné mínění (například algoritmy pro výběr zpráv).
- Ověření skutečné identity a kontrola dat: Čínské předpisy často vyžadují, aby uživatelé AI služeb byli registrováni pod skutečnou identitou (aby se zabránilo zneužití a bylo možné dohledat, kdo obsah vytvořil). Data používaná k trénování AI, obzvláště ta, která by mohla obsahovat osobní údaje, podléhají čínskému zákonu o bezpečnosti dat a zákonu o ochraně osobních údajů. Čínské firmy tak musí také vyhovět požadavkům státu na přístup k datům i algoritmům z bezpečnostních důvodů.
- Bezpečnostní posouzení: V letech 2024–2025 čínský standardizační orgán (NISSTC) zveřejnil návrhy bezpečnostních pokynů pro generativní AI cimplifi.com. Ty popisují technická opatření pro správu trénovacích dat, zabezpečení modelů atd., v souladu s důrazem státu na AI, která nemůže být snadno zneužita nebo generovat zakázaný obsah. V březnu 2025 CAC finalizoval Opatření pro správu označování AI-generovaného obsahu (jak je zmíněno výše), která od září 2025 ukládají povinnost jasně označovat jakýkoli AI-generovaný obsah cimplifi.com. To se překrývá s obdobným pravidlem EU, ačkoliv čínským důvodem je mimo jiné boj proti „fámám“ a udržení kontroly nad informacemi.
- Široké etické rámce: Čína zveřejnila i vysoce postavené zásady – například v roce 2021 vydalo Ministerstvo vědy a technologie etické pokyny pro AI s důrazem na human-centrické a kontrolovatelné systémy. V roce 2022 vydal Národní výbor pro správu AI (sdružující různé zájmové skupiny) dokument Zásady pro správu AI s důrazem na harmonii, spravedlnost a transparentnost. A v 2023 Čína představila Rámec pro bezpečné řízení AI v souladu s globální AI iniciativou, kde se mimo jiné zdůrazňuje přístup zaměřený na člověka a kategorizace rizik cimplifi.com. Tyto zásady zní podobně jako OECD nebo principy EU a naznačují, že i Čína chce být vnímána jako propagátor „zodpovědné AI“, ovšem v jejím kontextu (například spravedlnost v čínském pojetí může znamenat zabránění diskriminaci etnických menšin, ale také zajištění, že AI nebude ohrožovat státní jednotu).
- Přísné využití (či zneužití) zákonem: Zatímco EU mnohé reálné biometrické aplikace zakazuje, Čína patří mezi světové lídry v nasazování AI pro dohled (např. rozpoznávání obličejů na veřejnosti, monitoring „chytrých měst“ atd.). Existují určitá pravidla pro zajištění použití policií pouze pro bezpečnostní účely, ale obecně má stát velkou volnost. Systém sociálního kreditu existuje v základní podobě (zejména jako systém finančních kreditů a soudních záznamů), není ale tak „sci-fi“ jak je často popisován, a EU explicitně zakazuje to, co vnímá jako „sociální skórování“.
Ve výsledku jsou čínská pravidla velmi přísná v kontrole obsahu a etických zásadách, ale implementována shora dolů. Pokud je cílem aktu EU posílit jednotlivce a vytvořit procesní odpovědnost, čínský přístup je o kontrole poskytovatelů a zajištění, že AI nenaruší státní cíle. Pro podniky to znamená těsnou spolupráci s úřady, zavádění cenzurních a reportovacích mechanismů a sladění se se státními prioritami (např. rozvoj AI pro hospodářský růst, ne pro nesouhlas).
Šlo by říct, že čínský režim je „striktní, ale odlišný“: nezdůrazňuje veřejnou transparentnost (běžný čínský uživatel nezíská vysvětlení, proč AI rozhodla, jak rozhodla), zato prosazuje dohledatelnost a viditelnost státu do AI systémů. Také přímo zakazuje použití, která jsou v západních zemích do jisté míry povolena (například určité typy politických projevů prostřednictvím AI).
Čínské AI firmy jako Baidu nebo Alibaba musely stahovat zpět nebo přeškolovat modely, které generovaly politicky citlivý obsah. Vývoj velkých modelů v Číně je tímto rámcem velmi ovlivněn – předem filtrují tréninková data, aby odstranily tabuizovaný obsah, a doladí modely, aby se vyhýbaly určitým tématům.
Zajímavé je, že některé čínské požadavky (například označování deepfake obsahu) se překrývají s těmi evropskými, byť z trochu jiných důvodů. Naznačuje to potenciální oblast konvergence technických standardů – označování AI-generovaných médií by se mohlo stát globálním standardem, i když motivace budou různé (EU: ochrana před klamáním; Čína: to plus udržení kontroly).
Ostatní země: Mimo tyto tři několik zajímavých zmínek:
- Kanada: Jak bylo řečeno výše, Kanada navrhla zákon o umělé inteligenci a datech (AIDA) jako součást zákona C-27 cimplifi.com. Zaměřil se na AI systémy s „vysokým dopadem“ s požadavky na posouzení dopadů a některé zákazy. Tento návrh však uvízl (k začátku roku 2025 nebyl schválen a fakticky „zemřel“ v parlamentu cimplifi.com). Kanada se k tomu ale možná vrátí později. Prozatím se řídí zásadami z členství v např. OECD.
- Spojené království: Spojené království, které se vydalo jinou cestou než EU, vydalo White Paper o regulaci AI (březen 2023) s důrazem na pro-inovační přístup a minimální pravidla. Plánem Spojeného království je ponechat směrnici k AI v rukou existujících regulátorů (jako Health and Safety Executive, Financial Conduct Authority apod.), kteří mají vydávat doporučení pro AI relevantní pro jejich obor podle společných zásad (bezpečnost, transparentnost, spravedlnost, odpovědnost, možnost napadnutí rozhodnutí) cimplifi.com. Záměrně se rozhodli okamžitě nepřijímat nový zákon o AI. Monitorují, jak se uplatní regulace EU, a mohou se případně přizpůsobit, chtějí si však zachovat flexibilitu, mimo jiné pro přilákání AI firem. Pořádají rovněž AI Safety Summit (v listopadu 2023) pro posílení své pozice v globální AI debatě. Tento přístup může znamenat méně omezení v kratším horizontu, ale může se změnit, pokud se rizika AI vyhrotí.
- Ostatní v orbitě EU: Rada Evropy (která je širší než EU) pracuje na Úmluvě o AI, která by mohla být právně závaznou smlouvou o etice a lidských právech v AI – je stále ve fázi příprav, ale pokud bude schválena, může zavázat i nečlenské státy EU k zásadám podobným evropskému aktu, ale více obecně.
- Indie, Austrálie atd.: Mnoho zemí zveřejnilo etické pokyny pro AI. Indie například má rámcový přístup orientovaný na inovace, aktuálně však neplánuje zvláštní zákon pro AI, zaměřuje se na budování kapacit a dílčí oborové doporučení. Austrálie připravuje rámce založené na řízení rizik, ale pravděpodobně ještě nepřijme tvrdý zákon. Obecným trendem je, že všichni vnímají potřebu regulace AI, ale míra tvrdé regulace oproti „měkkému“ vedení se liší.
- Globální fóra: Doporučení UNESCO ohledně etiky AI (2021) schválilo téměř 200 zemí a pokrývá zásady jako přiměřenost, bezpečnost, spravedlnost apod. Není právně závazné, ale dokládá globální konsenzus o hodnotách. Podobně OECD AI Principles (2019) byly široce přijaty a inspirují např. i skupinu G20. Tyto globální zásady jsou na papíře velmi blízké přístupu EU. Výzvou je převést je do praxe shodně napříč státy.
Světové ekonomické fórum a další skupiny také vedou dialogy. Jak je zmíněno v článku WEF, existuje otázka, zda jsme svědky „rozcházejících se cest“ (USA, Čína a EU na různých regulačních drahách), nebo „domino efektu“, kdy krok EU inspiruje ostatní weforum.org seniorexecutive.com. Prokazují se obě tendence: EU jasně ovlivnila Brazílii i Kanadu; USA možná trochu mění postoj kvůli tlaku z EU (například diskuse o větší transparentnosti může být reakcí na tlak EU); Čína se sice v některých technických standardech přiklání, ale demokratizační stránku nepřebírá.
Stručně řečeno, zjednodušené srovnání by mohlo být:
- EU: Komplexní, právně závazná regulace napříč sektory založená na riziku; důraz na základní práva, silné vynucování (pokuty, dozorčí orgány).
- USA: V roce 2025 neexistuje jednotný zákon; spoléhání na široké principy (AI Bill of Rights) a sektorové vymáhání; důraz na inovace a existující právní rámce; zatím více samoregulace odvětví.
- Čína: Podrobné vládní předpisy pro kontrolu výstupů a použití AI; důraz na bezpečnost, cenzuru a státní dohled; povinné dodržování státem stanovených etických norem; vymáhání prostřednictvím státních orgánů se závažnými sankcemi (včetně trestních, pokud dojde k porušení státních pravidel).
Přes rozdíly všechny tři jurisdikce uznávají témata jako zaujatost, bezpečnost a transparentnost – jen je liší v prioritách a způsobu vynucování. Pro globální firmu to znamená navigovat tři režimy: dodržovat procedurální přísnost EU, řídit se americkými doporučeními a vznikajícími státními pravidly, a zavést čínská pravidla pro obsah a registrační požadavky při působení tam. To je náročné a vzniká tlak v mezinárodních fórech na snížení této zátěže harmonizací určitých aspektů (např. vyvíjení společných technických standardů pro řízení rizik AI, které vyhoví regulátorům ve více jurisdikcích).
Nadějným signálem je spolupráce na standardech pro AI (technické standardy skrze ISO/IEC nebo jiné organizace), což by společnosti mohlo umožnit vyvíjet AI podle jedné sady specifikací a ta by pak byla široce akceptována. Evropský akt dokonce uvádí, že dodržování harmonizovaných evropských standardů (jakmile budou pro AI existovat) vytvoří domněnku souladu artificialintelligenceact.eu. Pokud se tyto standardy sladí s globálními, společnost bude moci „postavit jednou, být v souladu globálně“.
A nakonec s výhledem do budoucna, jak se technologie AI vyvíjí (například s nástupem GPT-5 nebo autonomnějších AI systémů), bude se měnit i regulace. EU zahrnula do svého aktu mechanismy pro přezkum a aktualizace. V USA nebo jinde mohou být přijaty nové zákony, pokud dojde k závažné AI události, která vyvolá reakci (podobně jako některé kybernetické incidenty vedly ke zpřísnění zákonů o ochraně soukromí). Mezinárodní sladění může být podpořeno i nutností – například pokud AI začne mít významné přeshraniční dopady (jako AI spuštěná finanční krize či podobné události), státy budou muset spolupracovat.
V současnosti každá organizace, která chce v AI „být napřed“, musí sledovat všechny tyto linie: Evropská compliance je nutností pro vstup na trh EU, americké nejlepší praxe jsou klíčové pro tamní velký trh a pochopení čínských požadavků je zásadní pro firmy, které tam působí. Proaktivní přístup – integrace etických a bezpečných principů AI už do interních procesů – posílí pozici firmy v různých režimech. Často to znamená nastavení interního rámce pro řízení AI, který splňuje ta nejpřísnější kritéria (většinou evropská) a podle potřeby upravit v jednotlivých regionech.
Závěrem lze říct, že EU AI Act v roce 2025 udává tempo v oblasti AI regulace, ač přináší výzvy, zároveň nabízí strukturovanou cestu k důvěryhodné AI. Firmy i vlády po celém světě sledují vývoj a reagují – někteří zpřísňováním vlastních regulací, jiní důrazem na inovace. Nadcházející roky ukážou, jak se tyto přístupy střetnou a zda dojde ke globální harmonizaci nebo nás čeká pestrý mozaikovitý model, který vývojáři AI budou složitě navigovat. V každém případě ti, kdo jsou informovaní a připraví se včas – porozumí nuancím evropského aktu, zainvestují do compliance nástrojů a zapojí se do debat o podobě regulací – budou v této nové éře AI dohledu nejlépe připraveni na úspěch.
Zdroje:
- Evropský parlament, „EU AI Act: první regulace umělé inteligence,“ červen 2024 europarl.europa.eu europarl.europa.eu.
- Evropská komise, „Utváření digitální budoucnosti Evropy – AI Act,” aktualizováno 2025 digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu.
- Future of Life Institute, „High-Level Summary of the AI Act,“ květen 2024 artificialintelligenceact.eu artificialintelligenceact.eu.
- Orrick Law, „The EU AI Act: Oversight and Enforcement,” 13. září 2024 orrick.com orrick.com.
- Senior Executive Media, „Jak EU AI Act změní globální inovace,” 2023 seniorexecutive.com seniorexecutive.com.
- World Economic Forum, „Co obsahuje americký ‚AI Bill of Rights‘,” říjen 2022 weforum.org weforum.org.
- Cimplifi, „Aktuální stav AI regulací pro rok 2025“, srpen 2024 cimplifi.com cimplifi.com.
- BSR, „The EU AI Act: Kde stojíme v roce 2025?“ 6. května 2025 bsr.org bsr.org.