Patrik Meliš-Čuga
Akt o umělé inteligenci představuje významný právní předpis, který v Evropské unii (EU) mění podobu správy umělé inteligence. Jde o první legislativní rámec zaměřený na regulaci technologií umělé inteligence v rámci celé EU. Ten zavádí širokou škálu pravidel a požadavků, jejichž cílem je zajistit zodpovědný vývoj a užívání systémů umělé inteligence. Akt prošel dlouhým legislativním procesem a jeho požadavky nabývají postupně v účinnost od února 2025.
Akt o umělé inteligenci se vztahuje na všechny systémy umělé inteligence, které jsou vyvíjeny v rámci EU nebo mají dopad na unijní území. Dle jeho definice je „systém AI“ strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie a který po zavedení může vykazovat adaptabilitu a zároveň který za explicitními nebo implicitními účely z obdržených vstupů odvozuje, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí.
Hlavní myšlenkou Aktu o umělé inteligenci je regulace umělé inteligence podle rizik, která představují pro zdraví, bezpečnost a základní lidská práva. Akt o umělé inteligenci rozděluje umělou inteligenci do několika kategorií, které následně ukládají konkrétní povinnosti:
Požadavky na transparentnost lze pro některé systémy umělé inteligence, např. chatboty a generativní umělou inteligenci považovat za dodatečný požadavek.
Akt o umělé inteligenci má samostatnou kategorii systémů umělé inteligence, které nazývá obecnými modely AI, jež musí splňovat dodatečné požadavky. Tyto se dělí do následujících kategorií:
Nejpřísnější požadavky na systémy umělé inteligence stanovené Aktem o umělé inteligenci se týkají kategorií nepřijatelného a vysokého rizika, včetně obecných modelů AI. Nicméně každá kategorie má své specifické povinnosti.
Řada systémů umělé inteligence, které ve veřejném sektoru nasazují vládní agentury a instituce, se v Aktu o umělé inteligenci klasifikuje jako vysoce riziková. Na tyto případy využití se budou vztahovat přísnější požadavky. Za vysoce rizikové systémy AI mohou být považovány následující:
V současné době existuje několik dalších regulací, které při způsobení škody zvýší odpovědnost poskytovatelů nebo zavádějících subjektů systémů umělé inteligence za tyto systémy. Patří mezi ně přepracované a již přijaté znění směrnice o odpovědnosti za vadné výrobky. Akt o umělé inteligenci spolu s výše uvedenými směrnicemi mají zajistit, že poskytovatelé a zavádějící subjekty systémů umělé inteligence budou povinni při vytváření, nasazování a provozování těchto systémů v dlouhodobém horizontu zavést další opatření, která zaručí jejich bezpečnost.
S blížícím se termínem plné implementace Aktu o umělé inteligenci v srpnu 2026 nastane v oblasti umělé inteligence nová éra odpovědnosti a transparentnosti. Za zvláštní pozornost stojí role, kterou bude muset při zajišťování plného plnění Aktu o umělé inteligenci převzít veřejný sektor. Kroky, které může veřejný sektor podniknout, jsou následující:
Tento článek je součástí série s názvem „Dopad Aktu o umělé inteligenci na veřejný sektor“. Další poznatky o povinnostech veřejného sektoru jako poskytovatele a zavádějícího subjektu umělé inteligence naleznete na tomto odkazu. Mimo jiné se můžete seznámit s úlohou veřejného sektoru při implementaci a vymáhání povinností Aktu o umělé inteligenci v následující části série. Cílem této série není poskytnout právní analýzy či výklady.
Hledáte experta, který Vám pomůže; chcete poptat naše služby; nebo se zkrátka na něco zeptat? Dejte nám o sobě vědět a my se Vám co nejdříve ozveme zpátky.