Въведение и законодателен преглед
Актът на Европейския съюз за изкуствения интелект (EU AI Act) е първата в света цялостна рамка за регулиране на изкуствения интелект, чиято цел е да осигури достоверен ИИ, който спазва безопасността, основните права и обществените ценности digital-strategy.ec.europa.eu. Законът беше предложен от Европейската комисия през април 2021 г. и след дълги преговори официално приет в средата на 2024 г. europarl.europa.eu europarl.europa.eu. Актът въвежда подход, базиран на риска по отношение на управлението на ИИ, като налага задължения, пропорционални на потенциала на вреда от дадена система artificialintelligenceact.eu.
Законодателна хронология: Ключови етапи включват одобрението на Европейския парламент през 2023–2024 г. и официалното публикуване на 12 юли 2024 г., което задейства влизането в сила на акта от 1 август 2024 г. artificialintelligenceact.eu artificialintelligenceact.eu. Въпреки това, разпоредбите влизат в сила поетапно през следващите години:
- 2 февруари 2025 г.: ИИ системи с неприемлив риск са забранени. Всички практики с изкуствен интелект, считани за „неприемлив риск“ (вж. по-долу), са забранени от тази дата europarl.europa.eu. Държавите членки на ЕС също започват да въвеждат програми за грамотност относно ИИ, за да информират обществото artificialintelligenceact.eu.
- 2 август 2025 г.: Правила за прозрачност и управление влизат в сила. Новите правила за ИИ модели с общо предназначение (основни модели) и органите за управление на ИИ влизат в сила artificialintelligenceact.eu digital-strategy.ec.europa.eu. На ниво ЕС започва да функционира Офис за ИИ (обяснен по-късно), и от този момент могат да се налагат санкции за неспазване на правилата orrick.com orrick.com.
- 2 август 2026 г.: Основните изисквания се прилагат напълно. По-голямата част от задълженията на акта – особено за внедряването на ИИ системи с висок риск – стават задължителни 24 месеца след влизане в сила digital-strategy.ec.europa.eu. До тази дата доставчиците на нови ИИ с висок риск трябва да спазват акта, преди да предложат системите си на пазара в ЕС.
- 2 август 2027 г.: Краен срок за удължени преходни периоди. Определени ИИ, интегрирани в регулирани продукти (като медицински устройства, задвижвани от ИИ), имат по-дълъг преходен период (36 месеца) до 2027 г., за да постигнат съответствие digital-strategy.ec.europa.eu. Също така, доставчиците на съществуващи ИИ модели с общо предназначение (пуснати на пазара преди август 2025 г.) трябва да ги актуализират, така че да отговарят на изискванията на акта до 2027 г. artificialintelligenceact.eu.
Този поетапен график дава възможност на организациите да се адаптират, докато ранните мерки (като забраната на вредни употреби на ИИ) адресират най-сериозните рискове без забавяне europarl.europa.eu. Следващата стъпка е разглеждане на системата за класификация на риска и какво означава тя за участниците в сферата на ИИ.
Класификация на риска: Неприемлив, Висок, Ограничен и Минимален риск
Съгласно акта на ЕС за ИИ, всяка система с изкуствен интелект се класифицира по ниво на риск, което определя как ще бъде регулирана artificialintelligenceact.eu. Четирите нива на риск са:
- Неприемлив риск: Тези приложения на ИИ се считат за явна заплаха за безопасността или основните права и са напълно забранени в ЕС digital-strategy.ec.europa.eu. Актът изрично забранява осем практики, включително: ИИ, който използва подсъзнателни или манипулативни техники, причиняващи вреда; експлоатиране на уязвими групи (като деца или хора с увреждания) по вреден начин; държавно „социално оценяване“ на граждани и определени инструменти за превантивно предвиждане на престъпност artificialintelligenceact.eu artificialintelligenceact.eu. Особено биометричната идентификация в реално време от разстояние (напр. разпознаване на лица на живо на обществени места) с цел прилагане на закона по принцип е забранена digital-strategy.ec.europa.eu. Има ограничени изключения – например полицията може да използва разпознаване на лица в реално време за предотвратяване на непосредствена терористична заплаха или издирване на изчезнало дете, но само с съдебно разрешение и строг надзор europarl.europa.eu. В същността си всеки ИИ, чиято употреба е несъвместима с ценностите на ЕС (напр. социално оценяване или ИИ, който без основание предвижда престъпно поведение), не може да бъде внедряван digital-strategy.ec.europa.eu.
- Висок риск: Системи с ИИ, които носят сериозни рискове за здравето, безопасността или основните права, попадат в категорията „висок риск“. Те са позволени на пазара само ако има завишени защитни механизми. Високорисковите случаи са дефинирани по два начина: (1) ИИ компоненти, които са ключови за безопасността и вече са регулирани съгласно законодателството на ЕС за безопасност на продуктите (например ИИ в медицински изделия, автомобили, авиация и др.) artificialintelligenceact.eu; или (2) ИИ приложения в специфични сектори, изброени в Приложение III на акта artificialintelligenceact.eu. Приложение III обхваща области като критична инфраструктура, образование, заетост, основни услуги, правоприлагане, граничен контрол и отправление на правосъдието europarl.europa.eu europarl.europa.eu. Например, актът счита ИИ, използван в образованието (напр. оценяване на изпити или подбор на кандидати), за високорисков, предвид влиянието върху жизнените перспективи digital-strategy.ec.europa.eu. Също ИИ за наемане на работа или управление на персонал (като инструменти за сканиране на CV) и системи за кредитен скоринг попадат сред високорисковите digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Дори хирургичен робот или диагностичен ИИ инструмент в здравеопазването е високорисков поради съществуващите права, свързани с медицинско изделие, или защото отказ би могъл да застраши пациентите digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Високорисковият ИИ е строго регулиран – преди такива системи да бъдат внедрени, доставчиците трябва да приложат строги контролни механизми за риск и да преминат през оценка за съответствие (детайли в следващия раздел) cimplifi.com. Всички високорискови ИИ системи ще се вписват и в база данни на ЕС за прозрачност и контрол cimplifi.com. Важно е, че актът прави тесни изключения така че не всяка незначителна употреба в тези области се смята автоматично за „висок риск“ – например, ако ИИ само асистира човек или върши дребна подзадача, може да не попада към „високорисковите“ artificialintelligenceact.eu. Но по подразбиране всеки ИИ, който изпълнява чувствителни функции в изброените сфери, се третира като високорисков и трябва да отговаря на строги изисквания за съответствие.
- Ограничен риск: Тази категория обхваща ИИ системи, които не са високорискови, но все пак изискват някои правила за прозрачност artificialintelligenceact.eu. Актът не налага строги ограничения върху тези системи, освен да изисква от хората да знаят кога ИИ се използва. Например чатботове или виртуални асистенти трябва ясно да информират потребителите, че комуникират с машина, а не с човек digital-strategy.ec.europa.eu. Генеративният ИИ, който създава синтетични изображения, видео или аудио (напр. deepfakes), трябва да бъде проектиран да маркира генерираното от ИИ съдържание – например чрез воден знак или надпис – така че зрителите да не бъдат объркани europarl.europa.eu digital-strategy.ec.europa.eu. Целта е да се запази доверието в хората чрез прозрачност. Извън тези правила за уведомление, ИИ с ограничен риск може да се използва свободно без предварително разрешение. По същество, актът третира повечето ИИ инструменти, насочени към потребители, като ИИ с ограничен риск, където основното изискване е информиране на потребителите. Пример е ИИ, който променя глас или прави реалистично изображение – не е забранено, но трябва ясно да се отбелязва като съдържание, генерирано от ИИ, за да не подвежда europarl.europa.eu.
- Минимален (или никакъв) риск: Всички останали ИИ системи попадат в най-ниското ниво, което обхваща огромното мнозинство от приложенията на ИИ. Те носят незначителен или ежедневен риск и затова не подлежат на нови регулаторни изисквания по този акт artificialintelligenceact.eu digital-strategy.ec.europa.eu. Типични примери са ИИ филтри за спам, алгоритми за препоръки, ИИ в компютърните игри или прости помощни функции, вградени в софтуер. За тях актът по същество не налага промени – те могат да се разработват и използват така, както досега, съгласно съществуващото законодателство (като закони за защита на потребителите или поверителността), но без допълнителни изисквания, специфични за ИИ. ЕС изрично заявява, че повечето използвани към момента ИИ системи са нискорискови и не бива да се регулират прекомерно digital-strategy.ec.europa.eu. Регулацията е насочена към изключенията (висок и неприемлив риск), докато ИИ с минимален риск остава необременен, насърчавайки иновациите в тези области.
В обобщение, моделът на ЕС, базиран на риска, забранява най-опасните практики с ИИ, стриктно контролира чувствителните приложения на ИИ и минимално регулира останалите cimplifi.com. Този многостепенен подход цели да предпази гражданите от вреда, като същевременно избягва универсална регулация за всички ИИ. Следва да разгледаме какво включва спазването на акта за хората и организациите, които разработват или използват ИИ – особено в сферата на високия риск.
Задължения за AI разработчици (доставчици) и внедрители (потребители)
Изисквания за съответствие при високорисков AI: Ако разработвате AI система, определена като високорискова, Законът на ЕС за AI налага подробен списък от задължения преди и след пускането ѝ на пазара. Те по същество отразяват практики от индустрии с критична безопасност и защита на данните, като сега се прилагат и за AI. Доставчиците (разработчици, които предлагат система на пазара) на високорисков AI трябва, наред с другото:
- Внедряване на система за управление на риска: Те трябва да имат непрекъснат процес на управление на риска през целия жизнен цикъл на AI системата artificialintelligenceact.eu. Това означава идентифициране на предвидими рискове (напр. опасности за безопасността, рискове от пристрастие или грешки), анализирането и оценяването им, и предприемане на мерки за намаляване на риска още от етапа на проектиране до след внедряване artificialintelligenceact.eu. Това е аналогично на подхода „безопасност чрез проектиране“ – предвиждат се възможни неуспехи или вреди от AI и се адресират отрано.
- Гарантиране на висококачествени данни и управление на данните: Обучителните, валидиращите и тестови набори от данни трябва да са релевантни, представителни и максимално без грешки и пристрастия artificialintelligenceact.eu. Законът подчертава предотвратяване на дискриминационни резултати, така че доставчиците трябва да проверяват данните си за дисбаланси или грешки, които биха довели до нечестно третиране digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Например, ако се разработва AI за подбор на персонал, обучителните данни трябва да се прегледат за отражения на полова или расова предубеденост в миналите назначения. Управлението на данни включва проследяване на произхода и обработката на данните, за да може работата на AI да се разбира и одитира.
- Техническа документация и водене на записи: Разработчиците трябва да изготвят обширна техническа документация, доказваща съответствие на AI системата artificialintelligenceact.eu. Тази документация трябва да описва предназначението на системата, дизайна, архитектурата, алгоритмите, обучителните данни и контрола на риска artificialintelligenceact.eu. Тя трябва да е достатъчна, за да позволи на регулаторните органи да оценят начина на работа на системата и дали отговаря на изискванията на Акта. Освен това високорисковите AI системи трябва да бъдат проектирани така, че да логват своите операции – тоест автоматично да записват събития или решения за проследяемост и последващ анализ artificialintelligenceact.eu digital-strategy.ec.europa.eu. Например, AI система за вземане на кредитни решения би логвала входните данни и основанието за всяко решение. Тези логове помагат за идентифициране на грешки или пристрастия и са от съществено значение при инцидент или разследване за съответствие.
- Човешки надзор и ясни инструкции: Доставчиците трябва да изграждат системата така, че да позволява ефективен човешки надзор от страна на потребителя или оператора artificialintelligenceact.eu. Това може да означава включване на функционалности или инструменти, чрез които човек да може да се намеси или да наблюдава дейността на AI. Доставчикът трябва също да предостави подробни инструкции за употреба на внедрителя artificialintelligenceact.eu. Тези инструкции трябва да обясняват как се инсталира и оперира AI, какви са ограниченията му, очакваното ниво на точност, необходимите мерки за човешки надзор и рисковете от неправилна употреба artificialintelligenceact.eu. Идеята е, че компанията, която използва AI (внедрителят), може да осъществи надзор и контрол само ако разработчикът я е снабдил с нужната информация и средства. Например, производител на AI инструмент за медицинска диагностика трябва да инструктира болницата как да тълкува резултатите и кога лекар трябва да ги провери повторно.
- Производителност, устойчивост и киберсигурност: Високорисковите AI системи трябва да постигат подходящо ниво на точност, устойчивост и киберсигурност спрямо тяхното предназначение artificialintelligenceact.eu. Доставчиците трябва да тестват и настройват моделите си, за да минимизират грешките и да избегнат непредсказуемо поведение. Необходими са и мерки срещу манипулации или хакерство (киберсигурност), тъй като компрометиран AI може да е опасен (например, нападател може да промени AI система за управление на трафика). На практика това може да включва изпитване на AI в различни условия и проверка дали може да обработва вариации във входа, без да се стига до критични откази artificialintelligenceact.eu. Всички известни ограничения (например спад на точността при определени демографски групи или сценарии) трябва да се документират и минимизират доколкото е възможно.
- Система за управление на качеството: За да обхване всичко изброено по-горе, доставчиците са длъжни да имат внедрена система за управление на качеството artificialintelligenceact.eu. Това е формален организационен процес, гарантиращ продължаващо спазване на изискванията – подобно на ISO стандартите за качество – и обхваща всичко от стандартни оперативни процедури в разработката до обработка на инциденти и ъпдейти. Това институционализира съответствието, така че създаването на безопасен и законосъобразен AI да не е еднократно усилие, а постоянна практика за доставчика.
Преди високорискова AI система да бъде пусната на пазара в ЕС, доставчикът трябва да премине през оценка за съответствие, за да удостовери изпълнение на всички изисквания. Много високорискови AI системи ще подлежат на самооценка, при която доставчикът сам проверява спазването на изискванията и издава декларация за съответствие с ЕС. Ако обаче AI е част от определени регулирани продукти (като медицинско изделие или автомобил), уведомено лице (независим трети оценител) може да е нужно да сертифицира съответствието на AI според действащите продуктови регулации cimplifi.com. Във всички случаи съответстващите AI системи ще носят CE маркировка, която доказва съответствието със стандартите на ЕС, и ще се включват в европейска база данни на високорискови AI системи cimplifi.com. Тази база за прозрачност позволява на регулатори и обществеността да знаят какви високорискови AI системи се използват и кой носи отговорност за тях.
Задължения за внедрители (потребители): Законът въвежда и отговорности за потребителите или операторите, които внедряват високорискови AI системи в професионална дейност. (Това са фирмите или органите, които използват AI, а не крайните потребители или клиентите.) Основни задължения за внедрителите са: следване на инструкциите на доставчика за употреба, гарантиране на човешки надзор според указанията, и наблюдение на работата на AI по време на реална експлоатация digital-strategy.ec.europa.eu. Ако внедрител забележи неочаквано поведение или проблеми с безопасността, той трябва да предприеме действия (включително евентуално преустановяване на употребата) и да информира доставчика и органите. Внедрителите трябва също да водят логове при работа с AI (за записване на неговите изходи и решения, допълвайки собствения лог на AI) и да докладват сериозни инциденти или неизправности на органите artificialintelligenceact.eu. Например болница, която използва AI инструмент за диагностика, трябва да докладва ако AI е довел до грешна диагноза, причинила вреда на пациент. Тези задължения от страна на потребителя осигуряват, че надзорът продължава и след внедряване – AI не се „пуска безконтролно“, а се следи от човек с обратна връзка към разработчика и регулаторите.
Струва си да се отбележи, че малките потребители (напр. малка фирма) не са освободени от тези задължения, ако внедряват високорисков AI, но замисълът на законодателите е документацията и подкрепата от доставчиците да направят спазването им възможно. Законът също така прави разграничение между потребители и засегнати лица – последните (напр. клиент, отхвърлен от AI решение) нямат задължения по Акта, но имат права като подаване на жалби срещу проблемни AI системи europarl.europa.eu.
Изисквания за прозрачност (извън високорисковите): Освен за високорисковите системи, Законът за изкуствения интелект налага конкретни мерки за прозрачност за определени AI, независимо от нивото на риск. Споменахме ги по-рано в частта за „ограничен риск.“ Конкретно, всяка AI система, която взаимодейства с хора, генерира съдържание или наблюдава хора, трябва да предостави разкриване:
- AI системи, които взаимодействат с хора (като чатботове или AI асистенти), трябва да информират потребителя, че са AI. Например, онлайн чатбот за клиентска поддръжка трябва ясно да се идентифицира като автоматизиран, за да не бъдат подвеждани потребителите, че общуват с човек digital-strategy.ec.europa.eu.
- AI, която генерира или манипулира съдържание (изображения, видео, аудио или текст) по начин, който може да заблуди, трябва да гарантира, че съдържанието е идентифицирано като създадено от AI digital-strategy.ec.europa.eu. Дийпфейковете са типичен пример: ако AI създаде реалистично изображение или видео на някого, който всъщност не е казал или направил показаното, това AI-генерирано съдържание трябва да бъде означено (освен ако не се използва за сатира, изкуство или изследвания в областта на сигурността, където може да има изключения). Целта е да се противодейства на измамите и дезинформацията чрез ясно посочване на произхода на медиите.
- AI системи, използвани за биометричен надзор (като камери с лицево разпознаване) или разпознаване на емоции, трябва да предупреждават хората, че работят, винаги когато това е възможно. (И както бе посочено, много от тези приложения са абсолютно забранени или са високорискови със стриктни условия).
- Генеративните AI модели (често наричани базови модели, като големите езикови модели например ChatGPT) имат специфични изисквания за прозрачност и предоставяне на информация. Дори ако един генеративен модел не се класифицира като високорисков, неговият доставчик трябва да разкрива определена информация: например, AI-генерираното съдържание трябва да бъде обозначено и доставчикът трябва да публикува обобщение на защитените с авторски права данни, използвани за обучение на модела europarl.europa.eu. Това има за цел да информира потребителите и създателите за възможното наличие на интелектуална собственост в обучаващия набор и да осигури съответствие с европейското законодателство в областта на авторското право europarl.europa.eu. От доставчиците на генеративни модели се очаква и предотвратяване на генерирането на незаконно съдържание, например чрез внедряване на филтри или предпазни механизми в модела europarl.europa.eu.
Накратко, прозрачността е водеща тема в Закона за изкуствения интелект – независимо дали става въпрос за високорискова система (с подробна документация и информация за потребителите), или за нискорисков чатбот (с просто съобщение „Аз съм AI“), идеята е да се хвърли светлина върху „черните кутии“ на AI. Това не само дава възможност на потребителите и засегнатите лица, но и улеснява поемането на отговорност: ако нещо се обърка, ще има следа от документи за това какво е трябвало да прави AI и как е бил разработен.
Генерален изкуствен интелект (базови модели): Значимо допълнение във финалната версия на закона е набор от правила за Генерални AI модели (General-Purpose AI/GPAI) – това са широкоспектърни AI модели, обучени върху големи масиви от данни (често чрез самообучение), които могат да се адаптират за най-различни задачи artificialintelligenceact.eu. Примери са големите езикови модели, генератори на изображения или други “базови” модели, разработвани от технологични компании, които след това могат да се предоставят за употреба или допълнително обучение от други. Законът признава, че тези модели, макар да не са свързани с конкретно високорисково приложение, могат по-късно да бъдат интегрирани във високорискови системи или да окажат системно въздействие. Затова се въвеждат задължения за доставчиците на GPAI модели, дори самите модели все още да не са внедрени крайно за потребителите.
Всички доставчици на GPAI модели трябва да публикуват техническа документация за модела си (описваща процеса на разработка и възможностите му) и да предоставят указания на всички следващи разработчици как да използват модела съобразно изискванията artificialintelligenceact.eu artificialintelligenceact.eu. Те също трябва да зачитат авторското право – осигурявайки, че обучаващите данни съответстват на законите за авторското право в ЕС – и да публикуват обобщение на използваните обучаващи данни (поне на ниво основни източници) artificialintelligenceact.eu. Тези изисквания внасят повече прозрачност в иначе непрозрачния свят на големите AI модели.
Особено важно е, че законът прави разлика между собственически модели и тези, пуснати с отворен код. Доставчиците на GPAI модели с отворен код (когато теглата и кодът на модела са свободно достъпни) имат по-леки задължения: те трябва единствено да изпълнят стъпките за прозрачност по отношение на авторското право и данните за обучение, но не и пълна техническа документация или инструкции за употреба – освен ако техният модел представлява „системен риск“ artificialintelligenceact.eu. Тази клауза цели да не възпрепятства откритите иновации и научните изследвания. Въпреки това, ако един отворен модел е изключително способен и може да окаже голямо въздействие, той няма да избегне регулация единствено поради своя отворен лиценз.
Законът определя „GPAI модели със системен риск“ като онези много напреднали модели, които могат да имат далекобойно въздействие върху обществото. Един от критериите е, ако обучението на модела е изисквало повече от 10^25 компютърни операции (FLOPs) – индикатор, че става въпрос само за най-ресурсоемките и мощни модели artificialintelligenceact.eu. Доставчиците на такива модели с голямо въздействие трябва да провеждат допълнителни оценки и тестове (включително тестове за устойчивост срещу атаки за установяване на уязвимости) и активно да намаляват идентифицираните системни рискове artificialintelligenceact.eu. Те също така са длъжни да докладват за сериозни инциденти, свързани с модела им, до Европейската AI служба и националните власти, както и да осигурят силна киберсигурност за модела и неговата инфраструктура artificialintelligenceact.eu. Тези мерки отразяват опасенията, свързани с напредналите AI (като GPT-4 и по-нови), които потенциално могат да причинят широко разпространени вреди (например чрез нови форми на дезинформация, кибератаки и др.). Законът на практика казва: ако създавате най-съвременен генерален AI, трябва да сте особено внимателни и да работите с регулаторните органи, за да държите технологията под контрол europarl.europa.eu artificialintelligenceact.eu.
За да насърчи сътрудничеството, законът предвижда, че спазването на кодекси за поведение или бъдещи хармонизирани стандарти може да бъде начин GPAI доставчиците да покрият своите задължения artificialintelligenceact.eu. Всъщност ЕС улеснява създаването на кодекс за добри AI практики, който индустрията може да следва временно digital-strategy.ec.europa.eu. AI службата ръководи тези усилия, за да определи как на практика разработчиците на базови модели могат да съблюдават правилата digital-strategy.ec.europa.eu. Кодексът е доброволен, но може да служи като „благоприятен режим“ – ако компания го следва, регулаторите могат да приемат, че тя е в съответствие със закона.
Като цяло задълженията по закона обхващат целия жизнен цикъл на AI: от проектиране (оценка на риска, проверка на данните) през разработка (документация, тестване) до внедряване (прозрачност към потребителите, надзор) и след внедряване (мониторинг, докладване на инциденти). Спазването ще изисква мултидисциплинарни усилия – разработчиците на AI ще трябва да включат не само специалисти по данни и инженери, но и юристи, мениджъри на риска и етици, за да осигурят изпълнението на всички изисквания. След това ще разгледаме как ще се прилага спазването, и какво се случва ако компаниите не отговорят на изискванията.
Механизми за прилагане, надзорни органи и санкции
За да следи това мащабно регулиране, Законът за изкуствения интелект на ЕС създава многостепенна структура за управление и прилагане. Тя включва национални органи във всяка държава членка, нов централен Европейски AI офис и координация чрез AI борд. Подходът към прилагане отчасти е моделиран по опита на ЕС с режими за безопасност на продуктите и защита на данните (като съчетанието на GDPR между национални регулатори и европейски борд).
Национални компетентни органи: Всяка държава-членка на ЕС трябва да определи един или повече национални органи, отговорни за надзора върху дейностите, свързани с ИИ (често наричани органи за надзор на пазара за ИИ) orrick.com. Тези органи ще се занимават с ежедневни проверки за съответствие – например, ще проверяват дали високорисков продукт с ИИ на даден доставчик на пазара отговаря на изискванията, или ще разследват жалби от обществото. Те разполагат с правомощия, подобни на тези при съществуващите закони за безопасност на продуктите (Регламент (ЕС) 2019/1020): могат да изискват информация от доставчици, да провеждат инспекции и дори да нареждат изтеглянето от пазара на несъответстващи ИИ системи orrick.com. Те също така наблюдават пазара за ИИ системи, които може да заобикалят правилата или да представляват непредвидени рискове. Ако дадена ИИ система се окаже несъответстваща или опасна, националните органи могат да наложат глоби или да поискат изтегляне/отстраняване на системата.
Всяка държава най-вероятно ще възложи тази роля на вече съществуващ регулатор или ще създаде нов такъв (някои предлагат органите за защита на данните да поемат ИИ, или секторни регулатори, като агенциите за медицински изделия при медицинския ИИ, за да използват експертизата си). До август 2025 г. държавите членки са длъжни да имат определени и функциониращи ИИ регулатори artificialintelligenceact.eu, а до 2026 г. всяка страна трябва да създаде поне една регулаторна пясъчникова среда за ИИ (контролиранa средa за тестване на иновативни ИИ решения под надзор) artificialintelligenceact.eu.
Европейска служба за ИИ: На ниво ЕС е създаден нов орган, наречен Службата за ИИ в рамките на Европейската комисия (специално под DG CNECT) artificialintelligenceact.eu. Службата за ИИ е централен регулатор, съсредоточен върху ИИ с общо предназначение и трансгранични въпроси. Съгласно регламента, Службата за ИИ има изключителни правомощия по прилагане на правилата към доставчиците на модели с общо предназначение (GPAI) orrick.com. Това означава, че ако OpenAI, Google или друга компания предлага голям ИИ модел, използван в цяла Европа, именно Службата за ИИ ще бъде водещият орган по прилагане и ще гарантира, че тези доставчици изпълняват задълженията си (техническа документация, управление на риска и др.). Службата може да изисква информация и документация директно от доставчиците на базови модели и да изисква коригиращи действия, ако не спазват изискванията orrick.com. Тя ще наблюдава и случаи, в които една и съща компания е доставчик на базов модел и внедрява високорискова система, изградена върху него – за да не се губят компетенции между националния и европейския надзор orrick.com.
Освен със санкциониране, Службата за ИИ играе и широка роля в мониторинга на тенденциите при ИИ и системните рискове. Тя е натоварена с анализ на възникващи високорискови или непредвидени въпроси, свързани с ИИ (особено по отношение на GPAI) и може да провежда оценки на мощни модели artificialintelligenceact.eu. В службата ще има експертен персонал (Комисията вече набира експерти по ИИ за нея artificialintelligenceact.eu) и тя ще работи с независим Научен панел от експерти по ИИ за технически консултации artificialintelligenceact.eu. Службата ще разработва доброволни кодекси за поведение и насоки за индустрията – като източник на помощ за спазване на правилата от разработчиците на ИИ (особено полезно за стартиращи и малки/средни предприятия) artificialintelligenceact.eu. Тя ще координира с държавите членки за единно прилагане на правилата и дори ще подпомага съвместни разследвания при трансгранични случаи с ИИ artificialintelligenceact.eu artificialintelligenceact.eu. По същество Службата за ИИ е опитът на ЕС за централен регулатор на ИИ, който да допълва националните органи – подобно на Европейския съвет по защита на данните при GDPR, но с по-директни правомощия в определени сфери.
Съвет по изкуствен интелект (AI Board): С регламента се създава нов Европейски съвет по изкуствен интелект, съставен от представители на всички национални ИИ органи (и Европейският надзорен орган по защита на данните и Службата за ИИ като наблюдатели) artificialintelligenceact.eu. Задачата на Съвета е да гарантира съгласувано прилагане в цяла Европа – ще споделя добри практики, евентуално ще издава становища и препоръки, както и ще координира стратегии за трансграничен контрол artificialintelligenceact.eu. Службата за ИИ изпълнява секретариата на този съвет, организира срещи и подпомага изготвянето на документи artificialintelligenceact.eu. Съветът може да съдейства например за разработването на стандарти или да обсъжда актуализации, необходими за приложенията (Annexes) на регламента във времето. Това е междуправителствен форум за поддържане на единност, предотвратявайки разминаване в прилагането, която би могла да фрагментира единния пазар на ИИ в ЕС.
Санкции при неспазване: Регламентът за ИИ въвежда сериозни глоби за нарушения, следвайки възпиращия подход на GDPR. Предвидени са три нива на административни глоби:
- За най-сериозните нарушения – а именно внедряване на забранени практики с ИИ (недопустими, забранени употреби) – глобите могат да достигнат до 35 млн. евро или 7% от световния годишен оборот, което е по-високото от двете orrick.com. Това е изключително висок таван на санкциите (значително по-строг от максимума от 4% при GDPR). То показва колко сериозно ЕС разглежда например създаването на тайна система за социален рейтинг или незаконно биометрично наблюдение – приравнявайки ги към най-тежките корпоративни престъпления.
- За други нарушения на изискванията на регламента (напр. неизпълнение на задължения за високорисков ИИ, нерегистриране на система, липса на мерки за прозрачност), максималната глоба е 15 млн. евро или 3% от световния оборот orrick.com. Това би обхванало повечето пропуски в съответствието: например ако компания пропусне да направи оценка на съответствието или доставчик скрие информация от регулаторите – тези случаи попадат тук.
- За предоставяне на невярна, подвеждаща или непълна информация на регулаторите (например по време на разследване или в отговор на искане за съответствие), глобата може да достигне до 7,5 млн. евро или 1% от оборота orrick.com. Това по-ниско ниво е насочено основно към възпрепятстване или несътрудничество с органите.
Важно е, че законът постановява малките и средни предприятия (МСП) да бъдат санкционирани с по-ниски нива от тези диапазони, докато големите компании могат да бъдат санкционирани по високия таван orrick.com. С други думи, сумите €35M/7% или €15M/3% са максимални – регулаторите имат свобода на преценка и се очаква да отчитат размера и финансовите възможности на нарушителя. Така едно МСП може да получи глоба в милиони евро, а не процент от оборота, за да се избегнат непропорционални последици, докато големите технологични корпорации могат да бъдат санкционирани на процентен принцип, за да има реален възпиращ ефект orrick.com.
Тези разпоредби за санкции влизат в приложение от 2 август 2025 г. за повечето правила orrick.com. (Тъй като от тази дата се прилагат главата за управление и разпоредбите за глоби.) Обаче за новите изисквания към модели с общо предназначение санкциите започват година по-късно – на 2 август 2026 г., в синхрон с влизането в сила на задълженията към базовите модели orrick.com. Тази постепенност дава време на доставчиците на базови модели да се подготвят.
Що се отнася до процедурите и гаранциите: компаниите ще имат права, като правото да бъдат изслушани, преди да бъде решена санкция, а поверителността на чувствителната информация, предоставена на регулаторите, е задължителна orrick.com. Актът също така отбелязва, че за разлика от някои други закони на ЕС, Комисията (чрез AI Office) няма широкообхватни правомощия да провежда проверки по всяко време или да принуждава свидетелстване самостоятелно – освен ако временно не приеме ролята на национален орган orrick.com. Това отразява определени ограничения, най-вероятно за да се успокоят опасенията за прекомерна намеса.
Роля на AI Office в правоприлагането: Европейската комисия, чрез AI Office, може самостоятелно да инициира правоприлагащи действия в определени случаи, особено свързани с универсален изкуствен интелект (general-purpose AI). Това е нов механизъм за контрол – досега Комисията не е прилагала директно продуктови правила (нейната роля беше по-скоро в наблюдението и координацията), с изключение на конкуренцията. С AI акта Комисията получава по-конкретни инструменти за изпълнение. AI Office може да разследва доставчик на foundation модел, да поиска широк набор от документи (подобно на антимонополни разследвания) orrick.com, и дори да провежда симулирани кибератаки или технически оценки на AI модел, за да тества неговата безопасност artificialintelligenceact.eu. Компаниите, подложени на подобно разследване, могат да преживеят нещо подобно на конкурентно разследване, което, както отбелязват анализаторите на Orrick, може да бъде тежко с изисквания за хиляди документи, включително вътрешни чернови orrick.com. Опитът на Комисията с големи разследвания предполага, че тя ще вложи значителни ресурси в основните AI случаи. Докато това повишава изискванията за съответствие за AI разработчиците, също така подчертава, че ЕС е сериозен относно централизираното налагане на правила за foundation AI, които пресичат граници.
Надзор върху високо-рисков AI: За традиционните високо-рискови AI системи (като банкови системи за кредитен скоринг или използване на AI в полицията), основните правоприлагащи органи остават националните власти. Но AI Office и AI Board ще им помагат, особено ако възникнат проблеми, засягащи няколко държави. Актът допуска съвместни разследвания, при които няколко национални регулатора си сътрудничат (с подкрепата на AI Office), ако рисковете на AI система пресичат граници artificialintelligenceact.eu. Това не позволява, например, една държава да се занимава сама с AI, използван в целия ЕС, докато другите не знаят какво се случва.
Накрая, включен е процес за обжалвания и преглед: компаниите могат да обжалват правоприлагащи решения чрез националните съдилища (или в крайна сметка пред съдилищата на ЕС, ако става дума за решение на Комисията), а Актът ще бъде подлаган на периодични прегледи. До 2028 г. Комисията трябва да оцени доколко добре работят AI Office и новата система artificialintelligenceact.eu, и на всеки няколко години ще преразгледа дали категориите или списъците на рисковете (Приложение III и др.) имат нужда от актуализация artificialintelligenceact.eu. Това адаптивно управление е от ключово значение, предвид бързите темпове на развитие на AI технологиите – ЕС възнамерява да усъвършенства правилата според нуждите с времето.
В обобщение, AI актът на ЕС ще се прилага чрез мрежа от регулатори с Европейското AI Office като централен възел за насоки, последователност и директен надзор над foundation моделите. Санкциите са значителни – на хартия това са едни от най-големите в която и да е tech регулация – което ясно показва, че неспазването не е опция. Организациите ще искат да изградят съответствие в AI проектите си от самото начало, вместо да рискуват глоби или принудително спиране на AI системите си.
Секторно-специфични въздействия и практически случаи
Влиянието на AI акта варира в различните индустрии, тъй като законът насочва определени сектори като високорискови. Тук обобщаваме как ключови сектори – здравеопазване, финанси, правоохранителни органи и образование – са засегнати:
- Здравеопазване и медицински изделия: AI има огромен потенциал в медицината (от диагностициране на заболявания до роботизирана хирургия), но според акта тези приложения често се класифицират като високорискови. Всъщност всеки AI компонент на регулирано медицинско изделие ще се счита за високорисков по подразбиране emergobyul.com. Например, AI-базирана система за анализ на рентгенови снимки или алгоритъм, който предлага терапевтични планове, трябва да отговаря на изискванията на акта освен на настоящите здравни регулации. Доставчиците на такъв AI ще трябва да преминат през стриктни процедури за оценка на съответствието (вероятно съвместно с процедурата за CE маркировка за медицински изделия). Задължени са да гарантират клинично качество и безопасност, което съответства на изискванията на акта за точност и минимизиране на риска. Пациентите и медицинският персонал трябва да се възползват от тези гаранции – AI е по-вероятно да е надежден и ограниченията му да са прозрачни. Въпреки това, разработчиците на медицински AI ще имат по-високи R&D разходи и административна тежест за доказване на съответствие. В дългосрочен план може да се наблюдава по-бавно въвеждане на AI иновациите в европейското здравеопазване, докато преминат регулаторен преглед goodwinlaw.com. В същото време, актът стимулира експерименти чрез регулаторни пясъчници: болници, стартиращи компании и регулатори могат да работят заедно по контролирани изпитвания на AI системи (напр. AI за диагностика), за да съберат доказателства за безопасност и ефективност преди по-широко внедряване. До 2026 г. всяка държава членка трябва да има поне един такъв регулаторен пясъчник за AI в сектори като здравеопазване artificialintelligenceact.eu. В обобщение, здравният AI в Европа вероятно ще стане по-безопасен и стандартизиран, но производителите ще трябва внимателно да се съобразяват със съответствието, за да избегнат забавяния при пускане на животоспасяващи иновации на пазара.
- Финанси и застраховане: Актът ясно поставя много AI системи във финансовите услуги във високорисковата категория. Особено AI системи за оценка на кредитоспособност – например алгоритми, които определят дали ще получите заем или каква лихва ще плащате – са високорискови, защото могат да въздействат върху достъпа до основни услуги digital-strategy.ec.europa.eu. Това означава, че банките и финтех компаниите, използващи AI за одобрение на заеми, кредитен скоринг или застрахователно ценообразуване, трябва да гарантират, че системите са недискриминационни, обясними и одитирани. Те ще трябва да водят документация за обучението на AI (за доказване, че например даден модел не наказва неволно определени етнически групи или квартали, което вече е познат проблем при някои кредитни модели). Клиентите ще се възползват и от прозрачност: въпреки че актът не дава пряко право на обяснение като GDPR, изискването за яснота за потребителя предполага, че кредиторът трябва да може да уведоми кандидатите, че AI участва в решението и евентуално да обясни как работи digital-strategy.ec.europa.eu. Друг случай във финансите е AI за откриване на измами и предотвратяване на пране на пари, което може да бъде или високо-рисково (ако засяга основни права), или с ограничени задължения за прозрачност. Финансовите институции ще трябва да имат силни управленски процеси за AI – управляващи риска модели, разширени спрямо изискванията на AI акта. Може да има първоначални разходи за съответствие, като наемане на консултанти за тестване на пристрастия или добавяне на документация към моделите, но крайният резултат ще е по-справедлив и надежден AI във финансите. Клиентите може да забележат намаляване на пристрастията при кредитните решения, както и сигурността, че AI е под регулаторен надзор. Застрахователите, използващи AI за оценка на рискове при здравни или животозастрахователни модели, също попадат във високорискова категория artificialintelligenceact.eu и трябва да предотвратяват несправедливи практики на дискриминация (например AI не трябва да повишава необосновано премии на база защитени здравни характеристики). Като цяло, актът насочва AI във финансите към по-голяма прозрачност и отчетност, като вероятно ще засили доверието на потребителите в AI-продуктите с течение на времето.
- Правоохранителни органи и обществена безопасност: Това е област, в която актът заема много предпазлива позиция, имайки предвид високия риск за гражданските свободи. Няколко AI приложения за полицията са изцяло забранени като неприемливи: например AI, който осъществява “социално оценяване” или предиктивна полицейска дейност (профилиране на хора за престъпления), е забранен artificialintelligenceact.eu artificialintelligenceact.eu. Също така, силно дискутираното използване на фейс-идентификация на живо на публични места от полицията е забранено, освен в изключителни спешни ситуации (и пак – със строга процедура) europarl.europa.eu. Това означава, че европейските полицейски сили не могат просто да въведат масово видеонаблюдение с живо лицево сканиране – нещо, което иначе може да се случва другаде – освен при строго регламентирани извънредни обстоятелства и с разрешение от съд. Други полицейски инструменти попадат във високорискова група, което означава, че могат да се използват, но с контрол. Например AI, който анализира криминални данни за разпределение на полицейски ресурси или такъв, който оценява надеждността на доказателства и профили на заподозрени, е високорисков digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. Полицията или граничните служби, използващи такива системи, ще трябва да правят оценки за влияние върху основните права и да гарантират, че решенията се взимат окончателно от човек, а не единствено от AI. Ще има база данни на ЕС, в която трябва да се регистрират всички високорискови AI системи за полицията, което добавя прозрачност и позволява обществен контрол (доколкото някои данни може да са чувствителни). Разследващите органи може да установят, че актът въвежда известна бюрокрация (документиране, одобрение от нотифицирано тяло), което може да забави внедряването на AI. Тези мерки обаче имат за цел да предотвратят злоупотреби – например да не се стигне до ситуация, където черна кутия (алгоритъм) решава присъди или кой да бъде задържан на границата без право на обжалване. Друг специфичен ефект е върху технологиите за емоционален анализ в труд и полиция: актът забранява AI, което твърди, че открива емоции при полицейски разпити, интервюта за работа, изпити и подобни, поради инвазивната и ненадеждна природа на тези системи digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. В ЕС полицията вероятно ще се съсредоточи върху AI, който подпомага анализа на данни и рутинни задачи под човешки надзор, а по-дистопични практики ще бъдат изоставени. Същината на акта е: позволява на AI да помага за разкриване на престъпления и подобряване на сигурността, но не за сметка на основните права и свободи.
- Образование и заетост: AI системи, използвани в образованието, като софтуер за оценяване на изпити или препоръки за разпределяне на ученици, се считат за високорискови, защото могат да повлияят на бъдещето на учениците digital-strategy.ec.europa.eu. Училищата или ed-tech доставчиците, използващи AI, който оценява есета или открива измами, ще трябва да гарантират точност и липса на пристрастия в системите. Дефектна AI, която например занижава оценките на дадена група ученици или блокира изпита им поради грешка, може да има съдбовни последици – затова тези системи са високорискови. На практика министерствата на образованието и университетите ще трябва по-стриктно да проверяват AI доставчиците и да пазят документация за всеки алгоритъм, който влияе върху приема или оценяването. Учениците трябва да бъдат информирани, когато се използва AI (прозрачност) и да имат възможност за обжалване на решения – тези изисквания са част от философията на акта. В контекста на заетостта AI, използван за подбор на персонал или HR мениджмънт (преглед на CV-та, класиране на кандидати, анализ на ефективност), също е високорисков digital-strategy.ec.europa.eu. Компаниите, използващи такива инструменти, ще трябва да се уверят в честността им (например, да не възпроизвеждат полова дискриминация при наемане). Актът може да доведе до промени в индустрията: някои автоматизирани платформи за подбор на персонал ще трябва драстично да бъдат подобрени или документирани, за да са легални в ЕС, и компаниите може да върнат повече човешко участие в процесите, ако AI не покрива изискванията. Най-малкото, кандидатите в ЕС ще виждат уведомления като „Възможно е AI да участва в обработката на кандидатурата ви“ и ще могат да очакват обяснения – част от прозрачния подход на акта. Положителният резултат е повече справедливост и отчетност при наемане – AI няма да е мистериозна бариера, а инструмент под наблюдение. Предизвикателството пред HR отделите е да интегрират тези проверки, без да правят наемането твърде бавно или сложно. И тук регулаторните пясъчници може да помогнат: HR tech стартъп би могъл да тества своя AI инструмент в sandbox с регулаторите и да получи обратна връзка преди мащабиране.
В други сектори, които не са изрично упоменати в акта, въздействието зависи от случаите на употреба. Например, критичната инфраструктура (енергийни мрежи, управление на трафика), която използва AI за оптимизация, ще попада във високорисковата група, ако евентуална повреда застрашава сигурността artificialintelligenceact.eu. Така комуналните и транспортните оператори ще трябва да сертифицират AI управляващите системи. AI за маркетинг и социални мрежи (като алгоритми за таргетиране на реклами или препоръки за съдържание) главно попадат в категорията на минимален или ограничен риск – те не са обект на стриктна регулация по AI акта, макар че други закони (DSA и др.) може да действат.
Един от забележителните сектори е секторът на потребителските продукти и роботиката – ако ИИ бъде интегриран в потребителски продукти (играчки, уреди, превозни средства), тогава влизат в сила законите за безопасност на продуктите. Например, играчка с изкуствен интелект, която взаимодейства с деца, може да представлява висок риск, особено ако това може да повлияе опасно на поведението на децата europarl.europa.eu. Законът изрично забранява играчки, които използват гласов ИИ, за да насърчават вредно поведение при деца europarl.europa.eu. Затова компаниите за играчки и игри, които използват ИИ, трябва да бъдат особено внимателни относно съдържанието и функциите. Като цяло индустриите, които работят с човешки живот, възможности или права, са изправени пред най-съществените нови правила. Тези сектори вероятно ще видят културна промяна към “етика и съответствие на ИИ” – с роли като офицер по съответствие на ИИ или преглеждащ етиката, които ще станат обичайни. Макар че може да има първоначално забавяне, докато системите се одитират и подобряват, в дългосрочен план може да се появи по-голямо обществено доверие в ИИ в тези сфери. Например, ако родителите са уверени, че изкуствен интелект, който оценява децата им, се следи добре за справедливост, те могат да бъдат по-отворени към ИИ в образованието.Въздействие върху бизнеса: МСП, стартиращи компании и глобални корпорации
Законът на ЕС за ИИ ще засегне организации от всякакъв размер – от гъвкави стартъпи до мултинационални технологични гиганти, особено тези, които предлагат ИИ продукти или услуги в Европа. Разходите и задълженията за съответствие няма да са незначителни, но законът включва мерки за подпомагане или коригиране за по-малки предприятия, а и обхватът му извън ЕС означава, че дори глобални компании извън ЕС трябва да обърнат внимание. Малки и средни предприятия (МСП): МСП и стартъпите често са основни иноватори при ИИ – всъщност се изчислява, че около 75% от иновациите в ИИ идват от стартъпи seniorexecutive.com. ЕС е внимателен да не смаже тези участници с изискванията за съответствие, затова актът предвижда някои облекчения за МСП. Както вече беше споменато, глобите за нарушения са намалени за МСП в абсолютна стойност в евро orrick.com, което предотвратява разоряващи наказания за малки компании. По-нататък актът задължава регулаторни пясъчници да бъдат достъпни безплатно и с приоритет за МСП thebarristergroup.co.uk. Тези пясъчници (функциониращи до 2026 г. във всяка държава членка) ще позволят на стартъпите да тестват ИИ системи под надзор и да получат обратна връзка относно съответствието, без страх от санкции по време на тестовата фаза. Това е възможност продуктът да се развие съвместно с регулаторите – превръщайки изискванията за съответствие не толкова в пречка, а в процес на съвместен дизайн. Освен това Европейската комисия стартира “ИИ пакт” и други инициативи в подкрепа заедно със закона digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu. ИИ пактът е доброволна програма, която кани компаниите да поемат ангажимент за ранно съответствие и да споделят добри практики – с акцент върху подпомагането на участници извън големите технологични играчи да са подготвени. Законът също предвижда AI Office да предоставя насоки, шаблони и ресурси за МСП artificialintelligenceact.eu. Възможно е да видим примерни планове за управление на риска или списъци за документация, които 10-членен стартъп да използва, без да наема цял юридически екип. Въпреки тези мерки за подпомагане, много стартъпи все още се притесняват относно бремето на съответствието. Изискванията (описани по-горе), като системи за управление на качеството или оценка на съответствието, могат да изглеждат непреодолими за малка фирма с малко служители. Съществува опасение, че иновативността може да се забави или пренасочи географски: ако е твърде тежко да се стартира ИИ продукт в Европа, стартъп може да предпочете първо да стартира другаде (например в САЩ), или инвеститорите може да предпочетат региони с по-леки правила seniorexecutive.com seniorexecutive.com. Както сподели един технологичен изпълнителен директор, ясните правила дават увереност, но прекалено рестриктивните правила „могат да изтласкат ценни и достойни изследвания другаде.” seniorexecutive.com. Някои основатели на стартъпи смятат закона за твърде обширен и обременяващ, опасявайки се, че компании в ранен етап ще се борят с разходите за съответствие и ще предпочетат да се преместят извън ЕС seniorexecutive.com. За да се намали това бреме, политиците в ЕС са посочили, че стандартите и процедурите за съответствие ще бъдат максимално опростени. Например могат да се въведат стандартизирани модули за оценка на съответствието, на които малък доставчик може да се довери, или сертификационни услуги, които разпределят разходите между няколко МСП. Дори се обсъжда идеята за „грантове за съответствие” или субсидии — финансиране, което да помогне на стартъпите да покрият разходите по спазване на новите правила seniorexecutive.com. Ако такива стимули се реализират (възможно на ниво ЕС или на национално равнище), те биха облекчили бремето. Във всички случаи МСП трябва да започнат с картографиране на своите ИИ системи според категориите риск и да се съсредоточат върху високорисковите. Много стартъпи в ИИ може да установят, че продуктът им всъщност е минимален или ограничен риск, и че се налага само разкриване на определена информация, а не цяла програма за съответствие. За тези във високорисковите сфери (като стартъпи в медтех или HR инструменти) – ранният контакт с регулатори (чрез пясъчници или консултации) ще бъде от ключово значение. Законът изрично насърчава “про-иновационен подход” при прилагането му – т.е. регулаторите са длъжни да вземат предвид нуждите на по-малките играчи и да не прилагат санкции с универсален наказателен подход, особено в началния етап seniorexecutive.com. На практика вероятно ще има гратисен период, в който компаниите, които полагат реални усилия за съответствие, ще бъдат напътствани, а не незабавно глобявани. Глобални и компании извън ЕС: Точно както със GDPR, Законът за ИИ има екстериториален обхват. Ако ИИ система е пусната на пазара в ЕС или нейният изходен резултат се използва в ЕС, правилата могат да се прилагат, независимо къде се намира доставчикът artificialintelligenceact.eu. Това означава, че американски, азиатски или други международни компании не могат да игнорират закона, ако имат клиенти или потребители в Европа. Компания в Силициевата долина, която продава инструмент за подбор на персонал с ИИ на европейски клиенти, например, ще трябва да гарантира, че този инструмент отговаря на изискванията на ЕС (или техните клиенти в ЕС няма да могат да го използват законно). За големите световни технологични компаниите (Google, Microsoft, OpenAI и др.) Законът за ИИ вече влияе на тяхното поведение. Още преди законът да бъде приет, някои компании започнаха да предлагат повече прозрачност или контрол в своите ИИ продукти в очакване на регулация. Например, доставчиците на генеративен ИИ работят върху инструменти за етикетиране на съдържание, генерирано от ИИ, а няколко от тях публикуваха информация за техните обучителни данни и ограничения на моделите в отговор на натиска от ЕС. Съществува и аргумент, че спазването на Закона за ИИ може да се превърне в конкурентно предимство или знак за качество – подобно на продуктите, които са “GDPR-съвместими” и се възприемат като защитаващи личните данни, ИИ продукти със “съвместимост със закона на ЕС за ИИ” може да бъдат приети като по-надеждни и извън Европа. Глобалните компании обаче трябва да балансират между различни юрисдикции. Правилата на ЕС може да не съвпадат напълно, например, с предстоящите изисквания в САЩ. Някои щати или федерални насоки в САЩ могат да влизат в конфликт или да изискват различно отчитане. Международните фирми може да стандартизират към най-строгия режим (често този на ЕС), за да поддържат единен глобален подход – както се случи с GDPR, когато много компании разшириха правата по GDPR по целия свят. Може да видим, че доставчиците на ИИ възприемат практиките за прозрачност на ЕС (като етикетиране на ИИ резултати) в световен мащаб, с цел последователност. Законът може дори да “експортира” “стандартите за доверен ИИ на ЕС” към други пазари, ако големи компании приложат промените във всички версии на своите продукти. Все пак, има риск от фрагментация: ако други региони поемат по различен път, глобалните компании може да се наложи да поддържат отделни версии на ИИ продукти или функции за различните региони. Например, едно ИИ приложение може да има специален „EC режим“ с повече защити за ЕС. Това в дългосрочен план е неефективно, така че ще има натиск за международно съгласуване (повече по този въпрос в следващата секция). От гледна точка на корпоративната стратегия, големите фирми вероятно ще създадат специални екипи по съответствие с ИИ (ако вече не са го направили), за да одитират своите ИИ системи спрямо разпоредбите на закона. Може да станем свидетели на появата на трети страни ИИ одиторски фирми, които да предлагат сертификационни услуги – нова екосистема, подобна на одитите по киберсигурност – която както големи, така и средни компании ще използват, за да проверят съответствието си още преди официалният регулатор да им почука на вратата.Друго последствие е свързано с инвестициите: както венчър капиталистите, така и корпоративните купувачи ще провеждат комплексна проверка за съответствие с AI Акта. Стартъпите може да бъдат питани от инвеститори: „Готова ли е вашата оценка на риска по AI Акта? В „пясъчник“ ли сте или имате ли план за CE маркировка при нужда?“ – подобно на това как спазването на изискванията за поверителност стана част от списъка за проверка при инвестиционни рундове след въвеждането на GDPR. Компаниите, които могат да докажат съответствие, може да имат по-лесен път към партньорства и продажби в Европа, докато тези, които не могат, може да се смятат за по-рискови.
В обобщение, за МСП и стартъпи, Актъ т е „двуостър меч“ – носи яснота и евентуално конкурентно предимство за „отговорни AI“ решения, но също повишава изискванията за участие в определени високорискови сфери. За глобалните компании, Актът може ефективно да наложи де факто световен стандарт за AI управление (подобно на GDPR за защитата на личните данни), и компаниите ще трябва да интегрират тези изисквания в своя AI разработващ цикъл. ЕС се надява, че чрез засилване на доверието чрез регулации ще подкрепи навлизането на AI – бизнеси и потребители може да се чувстват по-спокойно, използвайки AI, знаейки, че той е регулиран. Но това ще е валидно само ако достигането на съответствие е постижимо; иначе иновациите може да се преместят в по-слабо регулирани среди.
Влияние върху иновациите, AI инвестициите и международното съгласуване
AI Актът на ЕС предизвика широк дебат за по-широкото си въздействие върху AI средата – дали ще задуши или ще подкрепи иновациите? Как ще повлияе на глобалното AI управление? Ето някои от ключовите очаквани ефекти:
Иновации: Спирачка или ускорител? Критиците твърдят, че строгите правила на Акта, особено за високорисковите AI системи, могат да забавят експерименталните иновации, особено за стартъпите, които са основен двигател на авангардното развитие seniorexecutive.com. Задачите по спазване на изискванията (документация, оценки и др.) може да удължат циклите на разработка и да отклонят ресурси от чисто R&D. Например, AI екип може да трябва да отдели допълнителни месеци за валидиране на данни и подготовка на съответни доклади преди пускането на продукт. Съществува опасение за възможен „отлив на иновации“, при който най-талантливите AI експерти или компании избират базиране в райони с по-малко регулаторни пречки seniorexecutive.com. Ако Европа се възприема като твърде труден пазар, следващият голям AI пробив може да се случи в САЩ или Азия, след което евентуално да се адаптира за Европа (или въобще да не се предлага там).
Вече има AI услуги (особено генеративни AI приложения), които блокират ЕС потребители или отлагат пускане на пазара в ЕС, позовавайки се на регулаторна несигурност. Ако с времето Актът се възприема като твърде тежък, Европа рискува да изостане по отношение на въвеждането на AI в сравнение с по-слабо регулирани среди.
От друга страна, много представители на индустрията смятат, че ясните правила могат да насърчават иновациите, като намаляват несигурността seniorexecutive.com. Актът създава предвидима среда – компаниите знаят „правилата на играта“ и могат да иновират със сигурност, че ако спазват насоките, то техният AI няма да бъде по-късно забранен или подложен на обществен отпор. Един често посочван плюс е, че Актът ще повиши общественото доверие към AI, което е критично за неговото възприемане. Ако гражданите имат доверие, че AI в Европа е проверен за безопасност и справедливост, те може да възприемат AI решения по-охотно и така да се разшири пазарът за AI продукти. Бизнесът също ще е по-склонен да инвестира в AI проекти, знаейки, че имат рамка за съответствие вместо да се страхуват от нерегулирана „дива западна“ среда с потенциални скандали или съдебни дела.
В същността си Актът търси баланс: въвежда триене (надзор, отчетност) с идеята това да доведе до дългосрочна, устойчива иновация, а не краткосрочен и хаотичен бум. Въвеждането на пясъчници и фокусът върху МСП показва, че ЕС осъзнава, че прекалено много триене = загубена иновация и активно търси как да го избегне.
Има и аргумент, че етичната AI иновация може да се превърне в конкурентно предимство. Европейските компании може да специализират в AI, който е прозрачен и изцяло ориентиран към човека, което им дава предимство при глобален растеж за търсенето на отговорен AI. Вече се развиват нови сектори за AI етика и инструменти за съответствие – от софтуер за откриване на пристрастия до платформи за документиране на модели – движени частично от очакванията за бъдещи регулации като тази.
AI инвестиции: В краткосрочен план разходите по съответствие са нов „данък“ върху AI разработката, което може да направи инвеститорите по-предпазливи или да насочи средства към нуждите по съответствие. Някои VC и PE фондове може да избягват стартъпи в силно регулирани AI сектори, освен ако те нямат ясен план за съответствие (или ако пазарният потенциал надвишава разходите по съответствие). От друга страна, можем да видим увеличени инвестиции в определени области:
- RegTech за AI: Компаниите, предлагащи решения за подпомагане на съответствието с AI Акта (напр. AI одитни услуги, автоматизация на документация, инструменти за мониторинг на модели), може да преживеят инвестиционен бум с нарастване на търсенето на продуктите им.
- AI удостоверяване и стандарти: Възможно е да се финансират AI проекти, които могат да покриват или надвишават регулаторните изисквания и така да се отличат. Например, AI модел, който е доказуемо обясним и справедлив, може да привлече клиенти и инвеститори, впечатлени от неговото „съответствие по дизайн“.
Самият ЕС насочва инвестиции към AI изследвания и иновации, съобразени с доверието. Чрез програми като „Хоризонт Европа“ и „Цифрова Европа“ се отделят средства за AI проекти с акцент върху прозрачността, устойчивостта и съответствието с ценностите на ЕС. Така публичните финанси подпомагат непрекъснати иновации, но по определени насочени линии.
Възможен резултат е, че някои AI ниши ще разцъфтят в Европа (тези, които лесно се напасват с правилата, напр. AI за здравеопазване с доказани ползи за безопасността), докато други може да изостанат (като AI за модериране на съдържание в социални мрежи, ако се считат за твърде рискови или сложни за съответствие – хипотетично). Може да се наблюдава и пренасочване от AI, ориентиран към крайния потребител, към AI за бизнес-бизнес (B2B) в Европа – тъй като AI, насочен към крайните потребители, може да бъде под по-голям регулаторен контрол (особено ако може да влияе върху поведението им), докато AI за вътрешна употреба в предприятията да се следи по-лесно за съответствие.
Глобално съгласуване или фрагментация: Международно, AI Актът се следи с внимание. Възможно е да стане шаблон, който други демокрации приспособят. Вече Бразилия е приела законопроект с европейски модел на оценка на риска cimplifi.com, а държави като Канада са изготвили AI закони (AIDA), насочени към високоефектен AI и управление на риска cimplifi.com. Тези усилия са повлияни от подхода на ЕС. Ако няколко юрисдикции възприемат сходни рамки, се движим към съгласуване – което улеснява AI компаниите, тъй като ще има по-малко разнопосочни правила за спазване.
Но не всички следват точно този пример. Обединеното кралство изрично е възприело по-незадължаващ, принципен подход, като предпочита да издава насоки чрез секторни регулатори, а не с един-единствен закон cimplifi.com. Великобритания залага на насърчаване на иновациите и заявява, че не иска да свръхрегулира нововъзникващите технологии. Може по-късно да представи свой AI акт, но вероятно доста по-гъвкав от европейския. Япония и други държави също сигнализират за по-мек подход, насочен към доброволно управление и етични принципи, а не задължителни правила.
В Съединените щати в момента няма федерален AI закон, съизмерим с този на ЕС. САЩ пуснаха необвързващ Проект за Харта на правата при изкуствен интелект, който очертава основни принципи като безопасност, недискриминация, поверителност, прозрачност и човешки алтернативи weforum.org, но това по-скоро служи като ръководство за политика, а не като задължителен закон. Вероятно в САЩ ще се появи секторна AI регулация (например FDA за AI в медицински изделия или финансови регулатори за AI в банкирането) и ще се разчита на действащи закони за въпроси като дискриминация или отговорност. В края на 2023 и 2024 г. САЩ активизира действията си – администрацията на Байдън издаде Изпълнителна заповед за AI (окт 2023), която, наред с друго, изисква разработчиците на много напреднали AI модели да споделят резултатите от тестовете за безопасност с правителството и разглежда AI в области като био-сигурност и граждански права. Но това е изпълнителна, а не законодателна мярка. Междувременно Конгресът провежда изслушвания и подготвя законопроекти, но към средата на 2025 г. нито един не е приет. Най-вероятният сценарий за САЩ е „мозайка“: някои щати имат собствени AI закони (например за прозрачност на AI-дийпфейкове или регулация на AI в подбора на персонал), а федералните агенции прилагат действащи закони (FTC следи за нечестни/заблуждаващи AI практики, EEOC за пристрастия в наемането чрез AI и др.), вместо да има един цялостен акт.
Това означава, че поне в краткосрочен план компаниите се сблъскват с разнородна регулаторна среда: строг режим в ЕС, по-лек (но развиващ се) режим в САЩ и различни модели на други места. Анализ на медията Senior Executive предвижда, че САЩ ще заложат на секторен подход, за да запазят конкурентното си предимство, докато Китай ще продължи със строгите мерки за контрол, а държави като Великобритания, Канада, Австралия е вероятно да възприемат по-гъвкави насоки seniorexecutive.com. Тази разлика може да се окаже предизвикателство – компаниите ще трябва да адаптират AI системите си спрямо изискванията на всеки регион, което е неефективно, скъпо и може да забави глобалното разгръщане на AI поради нуждата да се проверява съответствието с различни рамки.
От положителната страна има активни усилия за международна координация: ЕС и САЩ чрез своя Съвет за търговия и технологии имат работна група по изкуствен интелект (ИИ), която търси общи позиции (те работят по теми като терминология и стандарти за ИИ). Г7 стартира Хирошимския процес за ИИ в средата на 2023 г. за обсъждане на глобално управление на ИИ, като една от идеите беше разработване на кодекс на поведение за компании, занимаващи се с ИИ на международно ниво. Организации като ОИСР и ЮНЕСКО вече са приели принципи за ИИ, които много държави (включително САЩ, ЕС, а в случая на ОИСР дори и Китай) са подписали – тези принципи обхващат познати теми (справедливост, прозрачност, отчетност). Надеждата е, че те могат да бъдат отправна точка за съгласуване на регулации.
В дългосрочен план някои вярват, че може да се стигне до сближаване на основните принципи, дори ако правните механизми се различават seniorexecutive.com. Например почти всички са съгласни, че ИИ не трябва да бъде опасен или откровено дискриминационен – как ще се прилагат тези очаквания може да е различно, но резултатът (по-безопасен, по-справедлив ИИ) е споделена цел. Възможно е чрез диалози и евентуални международни споразумения да се стигне до частична хармонизация. Фрагментираното начало може в крайна сметка да доведе до по-унифициран набор от норми seniorexecutive.com, особено тъй като самата технология за ИИ се глобализира (трудно е да се поставят геоограничения в свързан свят).
Лидерство и конкуренция при ИИ: Съществува и геополитически аспект. ЕС се позиционира като лидер в етичното управление на ИИ. Ако неговият модел набере глобална инерция, ЕС може да има лост за определяне на стандартите (точно както това се случи с GDPR при защитата на данните по света). От друга страна, ако актът бъде възприет като възпрепятстващ европейската индустрия за ИИ, докато други региони напредват, ЕС може да бъде критикуван за самоналожени конкурентни недостатъци. Американските технологични компании в момента водят в много области на ИИ, а Китай сериозно инвестира в сферата. Залогът на Европа е, че достоверният ИИ ще спечели срещу нерегулирания ИИ в дългосрочен план, но това предстои да се докаже.
Първите признаци през 2025 г. сочат и двете: Някои компании за ИИ споделят, че европейските правила ги подтикват да разработват по-добър вътрешен контрол (положително), докато други са спрели някои услуги в Европа (отрицателно). Виждаме и международни компании, които взаимодействат с регулаторите на ЕС – например големи лаборатории по ИИ са в дискусии с ЕС относно прилагането на неща като водни знаци (watermarking) при ИИ съдържание, което показва, че актът вече влияе на глобалния дизайн на продуктите им.
От инвестиционна и научноизследователска гледна точка, може да се очаква повече изследвания върху обяснимост, намаляване на пристрастията и верификация – тъй като това ще е необходимо за съответствие. ЕС финансира мащабни изследвания в тези области, което би могло да доведе до пробиви, които да направят ИИ по принцип безопасен и по-лесен за регулиране (например нови техники за тълкуване на невронни мрежи). Ако такива пробиви станат факт, те ще са в полза за всички, не само за Европа.
В обобщение, Актът на ЕС за ИИ е смел регулаторен експеримент, който може или да установи глобален стандарт за управление на ИИ, или, ако не е добре калибриран, да изолира екосистемата за ИИ на ЕС. Най-вероятно той ще има съществено влияние: иновациите в ИИ няма да спрат, но ще се адаптират към регулаторните бариери. Компаниите и инвеститорите вече коригират своите стратегии – изграждат съответствие още в продуктовата си разработка, отчитат разходите по разработването на ИИ в ЕС, а някои може да се пренасочат към по-нискорискови приложения или други пазари. В международен план сме на кръстопът: ще тръгне ли светът по пътя на ЕС (което да доведе до по-еднакви глобални стандарти за ИИ), или ще се получи разделение, при което ИИ ще се развива различно при различни регулаторни философии? Следващите години, докато разпоредбите на акта влязат напълно в сила и другите държави реагират, ще бъдат показателни.
Глобални регулации за ИИ: Акт на ЕС спрямо САЩ и Китай (и други)
Актът на ЕС за ИИ не съществува във вакуум – той е част от по-широко глобално движение за справяне с предизвикателствата на ИИ. Нека го сравним с подходите в Съединените щати и Китай, две други ИИ суперсили с много различни регулаторни философии, както и да споменем някои други:
Съединени щати („Синия печат за Била за права относно ИИ“ & нововъзникващи политики): САЩ досега възприеха по-децентрализирания, по-принципен подход. През октомври 2022 г. Офисът за наука и технологии към Белия дом публикува „Синия печат за Била за права относно ИИ“ – пет ръководни принципа за проектирането и използването на автоматизирани системи weforum.org:
- Безопасни и ефективни системи – Американците трябва да бъдат защитени от опасен или дефектен ИИ (например, ИИ трябва да бъде тестван и наблюдаван, за да работи ефективно по предназначение) weforum.org.
- Защита от алгоритмична дискриминация – Системите с ИИ не трябва да дискриминират несправедливо и трябва да се използват по равноправен начин weforum.org. Това е свързано със съществуващите закони за гражданските права; по същество ИИ не трябва да бъде вратичка за дискриминация, която иначе не би била разрешена от човек.
- Поверителност на данните – Хората трябва да контролират как техните данни се използват в ИИ и да бъдат защитени от неправомерни практики weforum.org. Това не въвежда нов закон за поверителност, а подчертава, че ИИ не трябва да нарушава поверителността и трябва да използва данните минимално.
- Уведомление и обяснение – Хората трябва да знаят, когато се използва система с ИИ, и да могат да разберат защо е взето решение, което ги засяга weforum.org. Това изисква прозрачност и обяснимост, сходно по дух с изискванията за прозрачност на ЕС.
- Човешки алтернативи, разглеждане и резервен вариант – Трябва да има възможности за отказ или човешка намеса, когато е подходящо weforum.org. Например, ако ИИ ви откаже нещо важно (например ипотека), трябва да можете да обжалвате пред човек или да получите второ мнение.
Тези принципи отразяват много от целите на Актът на ЕС (безопасност, справедливост, прозрачност, човешки надзор), но критично, Билът за права относно ИИ не е закон – той е политическа рамка без задължителна сила weforum.org. Засега се прилага основно за федералните агенции като ръководство при използване или възлагане на ИИ. Очаква се да служи за пример и на индустрията, и наистина някои компании вече показват подкрепа за тези принципи. Но съответствието е доброволно; няма наказания, обвързани пряко с Била за права относно ИИ.
Освен това САЩ разчитат на съществуващи закони, за да възпират най-сериозните вреди, причинени от ИИ. Например Федералната търговска комисия (FTC) предупреди компаниите, че може да ги санкционира за некоректни или измамни практики, свързани с ИИ (като неверни твърдения за възможностите на ИИ, или използване на ИИ по начини, които вредят на потребителите). Комисията за равни възможности в заетостта (EEOC) разглежда как трудовото законодателство се прилага при ИИ инструменти за подбор – напр. ако ИИ систематично отхвърля кандидати в напреднала възраст, това може да нарушава антидискриминационните закони. Така че в САЩ има прилагане на закони, но чрез общото законодателство, а не чрез специфични за ИИ разпоредби.
Въпреки това ситуацията в САЩ започва да се променя. През 2023-2024 г. в Конгреса се водят сериозни дискусии за регулация на ИИ, подтикнати от бързото развитие на генеративния ИИ. Внесени са множество законопроекти (относно етикети за deepfake, прозрачност на ИИ, рамка за отговорност и др.), макар че никой от тях все още не е приет. Обсъжда се създаване на федерален институт за безопасност на ИИ или даване на нови правомощия на агенции за надзор на ИИ. Вероятно САЩ ще разработят по-конкретни регулации за ИИ в следващите години, но по-фокусирано, а не с цялостен подход като ЕС. Обикновено в САЩ регулацията е по сектори – например ИИ в здравеопазването трябва да отговаря на изискванията на FDA, който вече има насоки относно „софтуер като медицинско изделие“, обхващащи определени ИИ алгоритми. Друг пример: финансовите регулатори (като CFPB или OCC) проявяват интерес към ИИ кредитни модели и могат да прилагат съществуващите закони за справедливост във финансите.
Една област, където САЩ действат решително, е националната сигурност и ИИ: Наскоро с президентски указ бе наредено разработчиците на напреднали ИИ модели да предоставят на правителството резултатите от тестове за безопасност, ако моделите им може да имат значение за националната сигурност (като симулиране на опасни биологични агенти). Това е значително по-фокусиран подход спрямо ЕС, който няма специфично изключение за национална сигурност извън случаите на правоприлагане.
В обобщение, подходът на САЩ в момента е лек, ръководен от принципи, с акцент върху иновации и прилагане на съществуващо законодателство. Компаниите са насърчавани (но не и принуждавани засега) да следват етични насоки. Разликата с ЕС е, че ЕС задължава прилагането на тези принципи чрез закон с одити и глоби, докато в САЩ това засега са препоръки и изпълнението разчита на пазарни сили и широко приложими закони. Дали САЩ в крайна сметка ще се сближи с ЕС (чрез приемане на свой Акт за ИИ или пакет от правила) е ключов въпрос. В САЩ има гласове за по-строга регулация за защита на конкурентоспособността и доверието в обществото, но също така и за опасност от пререгулиране, което би навредило на технологичната индустрия. Вероятно ще видим междинен вариант: например задължителна прозрачност за определени критични системи с ИИ или сертификация на ИИ при чувствителни приложения без цялостна схема за класификация на риска.
Китайски регулации и стандарти за ИИ: Китай има съвсем различна политическа система и управлението на ИИ отразява нейните приоритети: социална стабилност, контрол върху информацията и стратегическо лидерство в ИИ. Китай бързо разширява своята регулаторна рамка, с особено стриктен подход към съдържанието и употребата, който често се прилага чрез административни правила.
Ключовите елементи в подхода на Китай включват:
- Задължителен преглед и цензура на ИИ съдържание: През август 2023 Китай въведе Временни мерки за услуги с генеративен ИИ cimplifi.com. Тези правила изискват всякакви публично достъпни генеративни ИИ (като чатботове или генератори на изображения) да гарантират, че съдържанието отговаря на основните социалистически ценности и е законно и истинно. Доставчиците трябва проактивно да филтрират забранено съдържание (всичко, което може да се счита за подривно, непристойно или по друг начин незаконно според режима на цензура в Китай). Това означава, че китайските ИИ компании изграждат усилено модериране на съдържанието. Правилата също изискват етикетиране на съдържание, генерирано от ИИ, когато може да обърка хората за реалността cimplifi.com. Това е много подобно на изискването на ЕС за етикетиране на дийпфейк съдържание, но в Китай то е представено като начин за предотвратяване на дезинформация, която може да причини социални безредици.
- Регистрация на алгоритми: Още преди правилата за генеративен ИИ, Китай имаше регулации за препоръчващи алгоритми (в сила от началото на 2022 г.). Компаниите трябваше да регистрират своите алгоритми в Администрацията по киберпространството на Китай (CAC) и да предоставят информация за начина им на работа. Този централен регистър има за цел да осигури надзор; властите искат да знаят какви алгоритми се използват, особено тези, които влияят на общественото мнение (като алгоритми за новинарски емисии).
- Верификация с истинско име и контрол на данни: Китайските регулации често изискват потребителите на ИИ услуги да се регистрират с реалната си самоличност (за да се предотврати злоупотреба и да се проследява кой е създал дадено съдържание). Данните, използвани за обучение на ИИ, особено такива с лична информация, подлежат на Закона за сигурността на данните и Закона за защита на личната информация на Китай. Така китайските компании трябва да се съобразяват и с изискванията на правителството за достъп (правителството може да изиска достъп до данни и алгоритми за сигурност).
- Оценки на сигурността: През 2024-2025, стандартният орган на Китай (NISSTC) публикува проект за насоки за сигурност на генеративния ИИ cimplifi.com. Те описват технически мерки за обработка на тренировъчни данни, сигурност на моделите и др., в съответствие с държавния фокус върху ИИ, който не може лесно да бъде злоупотребен или да генерира забранено съдържание. През март 2025 CAC финализира Мерките за управление на етикети за съдържание, генерирано от ИИ (както беше споменато) – задължително от септември 2025 всякакво съдържание, генерирано от ИИ, трябва да бъде ясно обозначено като такова cimplifi.com. Това се припокрива с подобно правило в ЕС, въпреки че причината в Китай е до голяма степен борба с „слухове“ и поддържане на контрол върху информацията.
- Широки етични рамки: Китай също публикува принципи на високо ниво – например през 2021 Министерството на науката и технологиите публикува етични насоки за ИИ, които говорят за човеко-центричност и контролируемост. През 2022 Националният комитет за управление на ИИ (многостранна група) публикува документ с принципи за управление на ИИ, подчертавайки хармония, справедливост и прозрачност. А през 2023 Китай издаде Рамка за управление на безопасността на ИИ в синхрон със своята глобална ИИ инициатива, акцентирайки на подход, съсредоточен върху хората, и категоризация на рисковете cimplifi.com. Те наподобяват принципите на ОИСР или ЕС, показвайки, че Китай също иска да бъде възприеман като промотиращ „отговорен ИИ“, но в собствения си контекст (напр. справедливостта в Китай може да означава предотвратяване на дискриминация срещу етнически малцинства, но също и недопускане ИИ да застрашава националното единство).
- Строга употреба на закона (или злоупотреби): Докато ЕС забранява много приложения на биометрия в реално време, Китай е лидер в прилагането на ИИ наблюдение (като лицево разпознаване на публични места, „умно градско“ наблюдение и др.). Има известни регулации, за да се осигури, че полицейската употреба е за сигурност и под контрол, но като цяло държавата има голяма свобода. Системата за социален кредит съществува в рудиментарна форма (предимно финансова и съдебна), макар да не е толкова научнофантастична, колкото често се представя, а ЕС изрично забрани т.нар. „социално оценяване“.
На практика, китайските регулации са строги откъм контрол на съдържанието и етични насоки, но се налагат отгоре-надолу. Ако Актът на ЕС е за упълномощаване на индивидите и създаване на процесна отчетност, подходът на Китай е за контрол върху доставчиците и гарантиране, че ИИ не подкопава държавните цели. За бизнеса съответствието в Китай означава тясна работа с властите, вграждане на функции за цензура и докладване и съобразяване с националните цели (напр. използването на ИИ за икономическо развитие, но не и за дисидентство).
Може да се каже, че режимът на Китай е „строг, но различен“: не набляга на публичната прозрачност (обикновеният китайски потребител не получава обяснение защо е взето конкретно ИИ решение), но набляга на проследимост и държавен достъп до ИИ системите. Също така директно забранява употреби, които на Запад са допустими (напр. определени политически изказвания чрез ИИ).
Китайски ИИ компании като Baidu или Alibaba са били принудени да спрат или пренастроят модели, които произвеждат политически чувствителни изходи. Развитието на големи модели в Китай е силно повлияно от тези правила – данните се префилтрират преди обучението, за да се извадят табу теми, а моделите се настройват да избягват определени теми.
Интересно е, че някои от изискванията на Китай (като етикетиране на дийпфейк съдържание) се припокриват с тези на ЕС, макар и по малко по-различни причини. Това показва потенциална област на сближаване при техническите стандарти – етикетирането на медии, генерирани от ИИ, може да стане глобална норма, макар мотивите да се различават (ЕС: защита от измама; Китай: това плюс запазване на контрол).
Други държави: Извън тези три няколко забележителни примера:
- Канада: Както беше посочено по-рано, Канада предложи Закон за изкуствения интелект и данните (AIDA) като част от Бил C-27 cimplifi.com. Той бе насочен към „високо-рискови“ ИИ системи с изисквания за оценки на въздействието и някои забрани. Въпреки това, законопроектът се забави (към началото на 2025 не е приет и реално е „умрял“ в парламента cimplifi.com). Канада вероятно ще го разгледа отново по-късно. В същото време тя се придържа към принципите от членството си в организации като ОИСР.
- Обединено кралство: Обединеното кралство, отклонявайки се от ЕС, публикува Бяла книга за ИИ регулация (март 2023), акцентирайки про-иновационни и леки правила. Планът на ОК е съществуващите регулатори (като Health and Safety Executive, Financial Conduct Authority и др.) да публикуват насоки за ИИ по сектори, базирани на общи принципи (безопасност, прозрачност, справедливост, отчетност, възможност за оспорване) cimplifi.com. Съзнателно е решено да не се прокарва нов закон за ИИ веднага. ОК наблюдава как ще се развие Актът на ЕС и може да се адаптира, но иска да запази гъвкавост, особено за привличане на ИИ бизнеси. Освен това са домакини на ИИ Summit за безопасност (ноември 2023), за да се позиционират в глобалните ИИ дебати. Подходът на ОК може да наложи по-малко ограничения в краткосрочен план, но може да се промени при материализиране на рискове.
- Други в орбитата на ЕС: Съветът на Европа (по-широк от ЕС) работи по конвенция за ИИ, която може да стане правно обвързващ договор за етика и човешки права – все още се разработва, но ако се приеме, ще обвързва подписалите (вкл. някои не-ЕС държави) с принципи, наподобяващи тези на Актa на ЕС, но на по-високо ниво.
- Индия, Австралия и др.: Много държави са публикували етични насоки за ИИ. Индия, например, има рамков подход с акцент върху иновациите и понастоящем не планира специфичен закон за ИИ, а фокусира върху изграждане на капацитет и секторни препоръки. Австралия разработва основаващи се на риска рамки, но вероятно няма да въвежда твърд закон скоро. Основната тенденция е, че всички признават нуждата от управление на ИИ, но степента на строга регулация спрямо меки насоки варира.
- Глобални формати: Препоръката на ЮНЕСКО за етика при ИИ (2021) беше приета от почти 200 страни и обхваща принципи като пропорционалност, безопасност, справедливост и др. Тя не е обвързваща, но сочи за глобален консенсус относно ценностите. Принципите на ОИСР за ИИ (2019) също бяха широко приети и реално информираха и Г20. Тези глобални принципи са много в духа на това, което ЕС прилага на теория. Предизвикателството е да се приложат еднакво на практика в различните държави.
Световният икономически форум и други групи също водят диалози по темата. Както е споменато в статията на WEF, има открит въпрос дали наблюдаваме сценарий на „разклоняване на пътищата“ (САЩ, Китай и ЕС по различни регулаторни пътища) или „домино ефект“, в който движението на ЕС подтиква другите да го последват weforum.org seniorexecutive.com. Има доказателства за двете: ЕС очевидно е повлиял на Бразилия и Канада; САЩ донякъде смекчават позицията си под натиск от страна на ЕС (например обсъждането за повече прозрачност може да е реакция на ЕС); сходствата с Китай са частични (имат някои общи технически стандарти, но не и стремеж към демократизация).
В обобщение, едно опростено сравнение би изглеждало така:
- ЕС: Всеобхватна, правно обвързваща регулация в различни сектори, базирана на риск; фокус върху основните права, с тежко прилагане (глоби, надзорни органи).
- САЩ: Няма единен закон (към 2025); разчита на широки принципи (AI Bill of Rights) и секторен контрол; фокус върху иновациите и съществуващите рамки за права; засега повече саморегулация от индустрията.
- Китай: Подробни правителствени правила за контрол на изходите и използването на ИИ; акцент върху сигурност, цензура и държавен надзор; задължително спазване на държавно определени етични норми; прилагане чрез държавни агенции със сериозни санкции (включително наказателни, ако се нарушават държавните правила).
Въпреки разликите, и трите режима признават проблеми като пристрастия, безопасност и прозрачност – просто ги приоритизират и прилагат различно. За глобална компания това означава да навигира три режима: да се съобразява с процедурната стриктност на ЕС, да следва указанията на САЩ и новите щатски правила, и да прилага съдържателните изисквания и регистрационните процедури на Китай, ако оперира там. Това е предизвикателно, а на международна сцена ще има натиск за намаляване на бремето, чрез хармонизиране на определени аспекти (например, изработване на общи технически стандарти за управление на ИИ риска, които да удовлетворяват регулаторите в различни юрисдикции).
Обнадеждаващ знак: сътрудничеството по стандартите за ИИ (технически стандарти чрез ISO/IEC или други органи) може да позволи на една компания да разработи ИИ според един набор от спецификации, които после ще бъдат приемани по-широко. Актът на ЕС дори споменава, че съответствието с хармонизирани европейски стандарти (когато бъдат налични за ИИ) ще дава презумпция за спазване artificialintelligenceact.eu. Ако тези стандарти се изравнят с глобалните, една компания ще може „да изгради веднъж, да се съобрази навсякъде“.
И накрая, с поглед напред – с еволюцията на ИИ технологиите (като GPT-5 или по-автономни ИИ системи), ще се развиват и регулациите. ЕС е заложил механизми за преглед на закона и неговото обновяване. САЩ или други могат да въведат нови закони, ако се случи сериозен ИИ инцидент, който да предизвика реакция (подобно на това как някои пробиви в данни доведоха до по-строги закони за поверителност). Международното съгласуване също може да бъде наложено по необходимост – ако, например, ИИ започне да има значими трансгранични последици (като ИИ-предизвикана финансова криза или друго), страните ще се обединят, за да го управляват.
Засега всяка организация, стремяща се да „бъде напред“ в ИИ, трябва да следи всички тези посоки: европейското съответствие е задължително за достъп до пазара на ЕС, най-добрите практики на САЩ са ключови за този голям пазар, а познаването на китайските изисквания е крайно важно за тези, които оперират там. Проактивната позиция – внедряване на етични и безопасни принципи за ИИ вътре в компанията – ще осигури стабилна основа за справяне с различните режими. Това често означава създаване на вътрешна рамка за управление на ИИ, която покрива най-строгите стандарти сред тях (обикновено тези на ЕС), и после се наглася спрямо специфичния регион при нужда.
В заключение, Актът за ИИ на ЕС от 2025 г. задава темпото в регулирането на изкуствения интелект, и въпреки че носи предизвикателства, предоставя и структуриран път към доверен ИИ. Компании и правителства по света следят и реагират – едни със затягане на собствените си регулации, други с акцент върху иновациите. Следващите години ще покажат как тези подходи си взаимодействат и дали ще постигнем по-хармонизирано глобално управление или ще останем с пъстра мозайка, през която разработчиците на ИИ трябва да лавират внимателно. Така или иначе, тези, които са информирани и се подготвят отрано – познават нюансите на ЕС акта, инвестират в съответстващи възможности и участват в политическия диалог – ще бъдат най-добре позиционирани да успеят в тази нова ера на регулация на ИИ.
Източници:
- Европейски парламент, „EU AI Act: първата регулация на изкуствения интелект“, юни 2024 europarl.europa.eu europarl.europa.eu.
- Европейска комисия, „Формиране на цифровото бъдеще на Европа – Акт за ИИ“, актуализиран 2025 digital-strategy.ec.europa.eu digital-strategy.ec.europa.eu.
- Future of Life Institute, „Високо ниво – резюме на Актa за ИИ“, май 2024 artificialintelligenceact.eu artificialintelligenceact.eu.
- Orrick Law, „The EU AI Act: Надзор и прилагане“, 13 септември 2024 orrick.com orrick.com.
- Senior Executive Media, „Как ЕС Актът за ИИ ще преобрази глобалните иновации“, 2023 seniorexecutive.com seniorexecutive.com.
- Световен икономически форум, „Какво съдържа ‘AI Bill of Rights’ в САЩ“, октомври 2022 weforum.org weforum.org.
- Cimplifi, „Актуализирано състояние на ИИ регулациите за 2025“, август 2024 cimplifi.com cimplifi.com.
- BSR, „Актът за ИИ на ЕС: Къде се намираме през 2025?“ 6 май 2025 bsr.org bsr.org.