Akt EU o umělé inteligenci

Vydáno: 14 minut čtení

EU AI Akt byl zveřejněn v Úředním věstníku jako nařízení Evropského parlamentu a Rady (EU) 2024/1689 dne 12. 7. 2024 a začne platit 20 dní po tomto zveřejnění. Má za cíl zajistit bezpečnost a transparentnost AI systémů, které budou uváděny na trh EU, a zároveň podpořit inovace a investice v této oblasti. Nařízení stanovuje přísná pravidla pro vysoce rizikové AI systémy a zakazuje určité praktiky, které jsou v rozporu s hodnotami EU. Akt se vztahuje na všechny poskytovatele AI systémů, bez ohledu na jejich sídlo, pokud jejich systémy působí v EU. Firmy, ale i úřady pak budou mít dva roky na přípravu, než nařízení začne být přímo závazné v plném rozsahu. Některé oblasti AI ovšem budou vymahatelné i dříve, např.:

  • zákazy se uplatní 6 měsíců po vstupu v platnost,
  • kodexy praxe 9 měsíců,
  • obecná pravidla 12 měsíců a
  • povinnosti pro vysoce rizikové systémy 36 měsíců po vstupu v platnost.

 

Nutnost regulace umělé inteligence byla v rámci EU zřejmá již několik posledních let. Ovšem teprve poté, co americká nezisková organizace pro výzkum umělé inteligence Open AI spustila svého chatbota ChatGPT, se tlak na vytvoření právní regulace vystupňoval do té míry, že o ní začaly země EU intenzivně jednat. Popularita ChatGPT a dalších AI programů v posledních letech totiž ukázala nové možnosti této technologie a začala být masově využívána širokou veřejností.
Již v roce 2020 vydala Evropská komise Bílou knihu k umělé inteligenci, která měla položit základ pro budoucí celoevropskou regulaci. V této době ještě EU uvažovala pouze směrem k soft-law řešení, nicméně posléze se ukázalo jako nutné jít přísnější regulatorní cestou. V roce 2021 již následoval první návrh AI Akt, který ale v důsledku zpřístupnění generativních systémů typu ChatGPT široké veřejnosti, doznal od své první podoby výrazných změn. V květnu 2023 přijaly Výbor pro vnitřní trh a Výbor pro občanské věci pozměňovací návrhy k původnímu znění. Následně bylo toto znění dne 13. 3. 2024 schváleno Evropským parlamentem (523 hlasů pro, 46 proti a 49 se zdrželo hlasování) a dne 21. 5. 2024 byl akt schválen členskými státy. Akt o umělé inteligenci, tedy nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění se určité legislativní akty unie (dále jen „AI Akt“ nebo „nařízení“) je první regulatorní nařízení upravující použití systémů umělé inteligence nejen v Evropské unii, ale i ve světě. Dne 12. 7. 2024 byl EU AI Akt zveřejněn v Úředním věstníku jako nařízení Evropského parlamentu a Rady (EU) 2024/1689.
 
Účel právní úpravy
Obecně je důležité předeslat, že s ohledem na novost celého tématu, kdy se jedná o první právní rámec umělé inteligence, bude při jeho aplikaci a výkladu nutné postupovat se značnou obezřetností. AI Akt má za cíl především zajistit bezpečnost AI systémů uváděných na trh EU, posílit právní jistotu a zlepšit správu a účinné vymáhání stávajících právních předpisů upravujících základní práva a bezpečnostní požadavky. Cílem je zajistit, aby systémy umělé inteligence používané v EU byly bezpečné, důvěryhodné, transparentní a nediskriminační. Také mají být v souladu s hodnotami a principy EU, šetrné k životnímu prostředí a používány odpovědným způsobem se zapojením lidského faktoru. Nařízení také určuje, které systémy umělé inteligence jsou v EU zcela zakázány.
Regulace uplatňuje přístup založený na posouzení míry rizika dopadu na zdraví, bezpečnost, případně zásahu do základních práv občanů EU. Platí tedy, že čím větší riziko daný systém AI představuje, tím přísnější pravidla pro jeho použití musí být dodržena. Důležitým cílem je rovněž podpora investic a inovací a snaha udělat z Evropy vedoucí subjekt v této oblasti, kde zatím dominuje především Čína a Spojené státy.
 
Definice umělé inteligence
Velkým přínosem AI Aktu je zavedení zákonné definice termínu umělé inteligence, resp. systému AI. Tento termín totiž doposud právně nijak definován nebyl, ačkoli se jednalo o pojem hojně využívaný, a to přinášelo časté problémy zejména v oblasti odpovědnosti. Definice vychází z již dříve používané definice Organizace pro hospodářskou spolupráci a rozvoj (OECD). Znění této definice je poměrně technologicky neutrální tak, aby definice umožňovala její použití i pro budoucí systémy umělé inteligence. Podle čl. 3 nařízení se systémem AI rozumí strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie, a který po zavedení může vykazovat adaptabilitu a za explicitními nebo implicitními účely z obdržených vstupů odvozuje, jak
generovat
výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí.
 
Povinné subjekty
AI Akt se vztahuje na poskytovatele systémů AI uvádějící systémy AI na trh nebo do provozu v EU a dále na poskytovatele obecných modelů AI. Na tyto subjekty se AI Akt vztahuje bez ohledu na to, zda jsou tyto subjekty usazeny či zda se nachází v EU. Poskytovatelem je dle nařízení fyzická nebo právnická osoba, veřejný orgán, agentura nebo jiný subjekt, který vyvíjí systém AI či obecný model AI nebo nechává vyvíjet systém AI či obecný model AI a uvádí jej na trh nebo který uvádí systém AI do provozu pod svým vlastním jménem, názvem nebo ochrannou známkou, ať už za úplatu, nebo zdarma.
Dále je AI Akt aplikovatelný na subjekty, které zavádějí („deployers“) systémy AI a jsou usazeny či se nacházejí na území EU. V původním návrhu představeném Evropskou komisí v roce 2021 byl místo pojmu „zavádějící subjekt“ používán pojem „uživatel“ („user“).
Pokud jsou zavádějící subjekty či poskytovatelé systémů AI usazeni či se nachází mimo EU, ale výstup vytvořený jejich systémem AI je užíván na území EU, spadají taktéž do působnosti AI Aktu.
 
Klasifikace systému AI podle míry rizik
Rizikem se dle nařízení rozumí kombinace pravděpodobnosti toho, že dojde k újmě, a závažnosti takové újmy. Nařízení dělí systémy AI podle míry rizik do následujících kategorií:
1.
nepřijatelné,
2.
vysoké,
3.
omezené a
4.
nízké nebo minimální.
 
1. Nepřijatelné
Přestože AI přináší celou řadu výhod, může být stejně tak zneužita k
manipulaci
a
sociální kontrole
osob. Dle nařízení jsou veškeré tyto praktiky zakázány, neboť jsou v rozporu s hodnotami EU, kterými jsou úcta k lidské důstojnosti, svoboda, rovnost, demokracie a právní stát, a se základními právy zakotvenými v Listině základních práv EU, včetně práva na zákaz diskriminace, na ochranu údajů a soukromí a práv dítěte. Explicitně je AI Aktem zakázáno uvádět na trh nebo do provozu systémy, které zjevně
ohrožují život, zdraví, bezpečnost nebo práva jednotlivců a vytváří nepřijatelné riziko.
Manipulativní techniky založené na AI lze použít k
přesvědčování osob k nežádoucímu chování
nebo k jejich klamání
tím, že je podněcují k přijímání rozhodnutí tak, že je podkopávána a narušována jejich autonomie, rozhodování a svobodná volba. Tyto systémy AI využívají
podprahové signály,
jako jsou zvukové a obrazové stimuly a videostimuly, které člověk není schopen vnímat, neboť jsou mimo rámec lidského vnímání, nebo jiné manipulativní nebo klamavé techniky, které narušují nebo oslabují autonomii, schopnost rozhodování nebo svobodnou volbu člověka tak, že tento vliv vědomě nezaznamená. Uvádění na trh nebo do provozu či používání určitých systémů AI s cílem podstatně ovlivnit lidské chování tímto způsobem je podle nařízení zakázáno.
Systémy AI mohou kromě toho zneužívat zranitelnost jednotlivců či určité skupiny osob i jiným způsobem, a to z důvodu jejich věku, zdravotního postižení nebo zvláštní sociální nebo ekonomické situace, nebo osoby žijící v extrémní chudobě nebo etnické nebo náboženské menšiny, přičemž všechny tyto osoby mohou být více zranitelné vůči zneužívání. Zakázány jsou systémy, které slouží orgánům veřejné moci k přidělování
sociálního kreditu
(tzv. social scoring) nebo jsou používané k rozpoznávaní emocí či
biometrické identifikaci
na dálku v reálném čase ve veřejně přístupných prostorech, které by vyvolávaly pocit neustálého sledování.
Výjimkou jsou dle čl. 33 Preambule nařízení v případě biometrické identifikace
pouze úzce definované situace, kdy je toto použití nezbytně nutné k dosažení důležitého veřejného zájmu, jehož význam převažuje nad uvedenými riziky. Tyto situace zahrnují hledání určitých obětí trestných činů, včetně pohřešovaných osob, některé případy ohrožení života nebo bezpečnosti fyzických osob či hrozby teroristického útoku a lokalizaci nebo identifikaci pachatelů nebo osob podezřelých ze spáchání trestných činů, které jsou v nařízení taxativně vyjmenovány.
 
2. Vysoce rizikové
Vysoce rizikové systémy AI budou na trhu EU
povoleny
, ale před uvedením na trh a během jejich celého životního cyklu budou
podléhat přísným požadavkům
. Obecně je možné vysoce rizikové systémy rozdělit do dvou režimů, a to buď systémy využívané jako součást výrobků regulovaných evropskými předpisy zajištujícími jejich bezpečnost (např. automobily, hračky), nebo systémy používané v osmi specifických oblastech, kam mimo jiné patří vzdělávání, kritická infrastruktura, zaměstnanost, vymáhání práva a ochrana hranic.
Při využívání těchto systémů mají být na poskytovatele kladeny přísnější požadavky, např. zavedení, uplatňování, zdokumentování a udržování
systému řízení rizik,
který bude podléhat systematickým aktualizacím a na základě něhož budou přijímána potřebná opatření, dále vypracování
technické dokumentace
a její průběžná aktualizace,
transparentnost
používaného systému umělé inteligence, které je dosaženo mimo jiné opatřením stručného, úplného, věcně správného návodu obsahujícího totožnost a kontaktní údaje poskytovatele, vlastnosti, schopnosti systému včetně zamýšleného účelu a úrovně spolehlivosti a kybernetické bezpečnosti, a potřeba
lidského dohledu
zaměřeného na prevenci nebo minimalizaci rizik.
Poskytovatelé vysoce rizikových systému AI se zároveň budou povinni registrovat před vstupem na trh ve veřejně přístupné databázi spravované Komisí.
 
3., 4. Omezené, nízké nebo minimální
Tyto dvě kategorie rizikovosti nemají žádná zvláštní omezení. V případě obrazového, zvukového nebo videoobsahu vytvořeného nebo manipulovaného umělou inteligencí, který se podobá existujícím osobám, objektům, místům (tzv.
„deep fake“
), budou subjekty povinny uživatele informovat, že obsah byl vytvořen uměle nebo s ním bylo manipulováno, a musí jim být umožněno rozhodnout se, zda budou v jeho dalším využívání pokračovat.
Systémy s nízkým nebo minimálním rizikem spadají do zbytkové kategorie, která není limitována žádnými specifickými požadavky, a tyto systémy mohou být uváděny na trh EU téměř bez omezení. AI Akt však předpokládá vznik
kodexů chování,
které budou motivovat k dobrovolnému plnění požadavků kladených na systémy umělé inteligence s vysokým rizikem.
 
Obecné modely AI
Nařízení také definuje pojem „obecný model AI“ a odlišuje jej od pojmu „systém AI“. Jako klíčové vlastnosti obecného modelu AI nařízení uvádí
obecnost
a
schopnost kompetentně plnit širokou škálu různých úkolů
. Tyto modely jsou obvykle
trénovány na velkém množství dat,
a to prostřednictvím různých metod, jako je učení s učitelem, bez učitele nebo posilované učení. Ačkoli jsou modely AI základními součástmi systémů AI, nepředstavují samy o sobě systémy AI. Modely AI vyžadují doplnění dalších součástí, jako je například uživatelské rozhraní, aby se z nich staly systémy AI. Modely AI jsou obvykle začleněny do systémů AI a tvoří jejich součást.
K doplnění úpravy obecných modelů AI nebo také tzv. „foundation models“ nebo „general-purpose AI models“ do nařízení došlo na základě globálního úspěchu ChatGPT. Ani poskytovatelé obecných modelů AI proto neuniknou novým povinnostem, mezi které patří vypracování a vedení technické dokumentace, zpřístupnění informací a dokumentace poskytovatelům systémů AI, kteří hodlají model integrovat do svého vlastního systému AI, zavedení pravidel pro dodržování autorského práva EU a v neposlední řadě vypracování a zveřejnění dostatečně podrobného shrnutí obsahu použitého k trénování modelu podle vzoru poskytnutého Evropským úřadem pro umělou inteligenci.
 
Regulační pískoviště
Jak jsme již nastínili v úvodu, cílem nařízení není jen stanovení pravidel a sankcí pro systémy AI, ale také podpora inovací v této oblasti. Nařízení proto státům ukládá vytvoření kontrolovaného prostředí, tzv. regulačního pískoviště (sandbox), ve kterém bude umožněno systém umělé inteligence otestovat v reálných podmínkách před jeho uvedením na trh a podchytit či odstranit případné nedostatky.
 
Sankce za nesplnění povinností
Systémy AI, které nesplní požadavky a povinnosti plynoucí z AI Aktu, nemůžou být na trh EU uvedeny. Pokud se tak však stane, hrozí jejich poskytovatelům pokuty, které se mohou pohybovat v následující výši:
pokuta až ve výši 35 mil. EUR nebo 7 % ročního celosvětového obratu za předchozí finanční rok (podle toho, která hodnota je vyšší) za porušení týkající se
zakázaných systémů AI
,
pokuta až ve výši 7,5 mil. EUR nebo 1 % ročního celosvětového obratu za předchozí finanční rok (podle toho, která hodnota je vyšší)
za poskytnutí nesprávných, neúplných nebo zavádějících informací
oznámeným subjektům a příslušným vnitrostátním orgánům,
pokuta až ve výši 15 mil. EUR nebo 3 % ročního celosvětového obratu za předchozí finanční rok (podle toho, která hodnota je vyšší) za
ostatní porušení
AI Aktu,
pokuta až ve výši 15 mil. EUR nebo 3 % ročního celosvětového obratu za předchozí finanční rok (podle toho, která hodnota je vyšší) za porušení ustanovení AI Aktu ze strany poskytovatelů
obecných modelů AI
.
 
Závěr a doporučení
Zda tedy dojde k naplnění základních účelů nové právní úpravy, která by měla do oblasti AI přivést zejména větší investice a zajistit nutné inovace, a zda se EU podaří držet krok s ostatními světovými lídry v této oblasti, se zřejmě brzy dozvíme. Umělá inteligence bude velmi pravděpodobně stále více ovlivňovat náš každodenní život. Je tedy proto zásadní zaměřit se na její benefity, které nám může přinést. Zároveň se z právního hlediska nacházíme v době, kdy je právní regulace umělé inteligence teprve v začátcích a máme unikátní možnost sledovat, jakým směrem se bude dále vyvíjet.
Samotným poskytovatelům systémů AI a obecným modelům AI lze doporučit, aby s ohledem na komplexnost nového nařízení přistoupili k přípravám na novou právní úpravu co nejdříve.
Tento článek vychází hlavně z textu samotného nařízení, protože oficiální propracované materiály v ČR zatím chybí. Nicméně, pro více informací doporučuji využít například tyto zdroje:
Tématu AI se pak ve svých analýzách obecně hodně věnuje poradenská kancelář Deloitte.