Umělá inteligence (artificial intelligence, AI) je téma, které aktuálně hýbe světem. Není tomu jinak ani v České republice. Díky rychlému technologickému pokroku přicházejí změny dříve, než na ně stíhají legislativci reagovat. Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty unie (dále „AI Akt“), který je prvním legislativním dokumentem z pera orgánů EU v této dynamicky se rozvíjející oblasti, byl dne 21. května 2024 přijat Radou Evropské Unie.
AI Akt
Přestože bylo prvotním záměrem EU přijetí soft-law řešení, jak bylo ostatně nastíněno roku 2020 vydáním Bílé knihy o umělé inteligenci, celospolečenský vývoj a rostoucí význam umělé inteligence v soudobé společnosti vyžadoval přísnější přístup, který vyvrcholil právě zveřejněním návrhu AI Aktu, který spatřil světlo světa již v dubnu roku 2021.
Od doby zveřejnění prvotního návrhu došlo k významným změnám, zejména však byly široké veřejnosti zpřístupněny některé generativní systémy typu ChatGPT. Tuto skutečnost bylo nezbytné zohlednit v navrhovaném nařízení, a proto dne 11. května 2023 přijaly Výbor pro vnitřní trh a Výbor pro občanské věci pozměňovací návrhy k původnímu znění.
Další vývoj na sebe nedal dlouho čekat a Evropský parlament dne 13. března 2024 definitivně schválil návrh nařízení v pozměněném znění. Legislativní proces vyvrcholil dne 21. května 2024, kdy bylo finální znění schváleno členskými státy. AI Akt vstoupí v platnost dvacátým dnem po jeho vyhlášení v Úředním věstníku Evropské unie, přičemž plně aplikovatelný bude 24 měsíců po svém vstupu v platnost.
Obecně
Vzhledem k tomu, že jde o první právní rámec umělé inteligence vůbec, je při jeho výkladu třeba postupovat značně opatrně. AI Akt si klade za cíl především zajistit bezpečnost AI systémů, které budou uváděny na trh EU, a posílení právní jistoty, která podpoří potřebné investice a inovace v oblasti AI, a samozřejmě zlepšení správy a účinného vymáhání stávajících právních předpisů, které upravují základní práva a bezpečností požadavky.
Přestože je EU aktuálně považována za průkopníka právní regulace umělé inteligence, není zdaleka velmocí, co se vývoje spojeného s umělou inteligencí týče. V této oblasti vynikají především Spojené státy spolu s Čínou, přičemž EU investuje do výzkumu mnohonásobně méně. Jaký vliv na objem investic do této oblasti bude nová právní regulace v AI Aktu mít, se nejspíše brzy dozvíme.
Definice umělé inteligence
Prvotním přínosem AI Aktu je nastolení zákonné definice termínu umělé inteligence, resp. systému AI. Dosud se totiž jednalo o termín, který byl sice široce využívaným, avšak doposud spíše vágním pojmem bez právního základu, a tato absence zákonné definice představovala potenciální problém zejména v oblasti odpovědnosti.
Současná definice vychází z již dříve používané definice Organizace pro hospodářskou spolupráci a rozvoj (OECD). Znění této definice je poměrně technologicky neutrální tak, aby definice umožňovala její použití i pro budoucí systémy umělé inteligence.
Ve zkratce, umělá inteligence definována jako autonomně fungující software, který je schopen generovat obsah, predikce, doporučení nebo rozhodnutí, které ovlivňují prostředí, ve kterém je software nasazený.
Jaké novinky AI Akt přináší?
Klasifikaci systémů dle míry rizika
Přestože většina systémů umělé inteligence vykazuje minimální riziko, je třeba provádět kategorizaci rizik a dodržovat povinnosti dle zařazení.
Nařízení pracuje s celkem čtyřmi kategoriemi míry rizik:
- nepřijatelné,
- vysoké,
- omezené a
- nízké nebo minimální.
Systémy umělé inteligence s nepřijatelnou mírou rizika jsou nově zakázané, a to z důvodu jejich rozporu s hodnotami Evropské unie.
Explicitně je AI Aktem zakázáno uvádět na trh nebo do provozu systémy, které zjevně ohrožují život, zdraví, bezpečnost nebo práva jednotlivců a vytváří nepřijatelné riziko. Konkrétně se jedná např. o systémy umělé inteligence, které kognitivně manipulují s chováním lidí či používají tyto podprahové techniky na zranitelné skupiny (např. hlasem ovládané hračky podporující násilí u dětí), slouží orgánům veřejné moci k přidělování sociálního kreditu nebo jsou používané k rozpoznávaní emocí či biometrické identifikaci na dálku v reálném čase.
AI Akt však též připouští výjimku ze zákazu využívání umělé inteligence na biometrickou identifikaci, a to za účelem stíhání závažných trestných činů (např. terorismu), kdy se schválením soudem bude možné její využití ke zpětné biometrické identifikaci pachatelů.
Pro systémy vykazující vysoké riziko v oblasti života, zdraví a práva fyzických osob AI Akt zavádí dva odlišné režimy v závislosti na vykonávané funkci, ale také na konkrétním účelu systému umělé inteligence.
Obecně je možné vysoce rizikové systémy rozdělit do dvou režimů:
- systémy využívané jako součást výrobků regulovaných evropskými předpisy zajištujícími jejich bezpečnost (např. automobily, hračky); a
- systémy používané v osmi specifických oblastech, kam mimo jiné patří vzdělávání, kritická infrastruktura, zaměstnanost, vymáhání práva a ochrana hranic.
Při využívání systémů umělé inteligence vykazujících vysoká rizika mají být na poskytovatele kladeny přísnější požadavky, mezi které budou patřit zejména:
- zavedení, uplatňování, zdokumentování a udržování systému řízení rizik, který bude podléhat systematickým aktualizacím a na základě něhož budou přijímána potřebná opatření;
- vypracování technické dokumentace a její průběžná aktualizace;
- transparentnost používaného systému umělé inteligence, které je dosaženo mimo jiné opatřením stručného, úplného, věcně správného návodu obsahujícího totožnost a kontaktní údaje poskytovatele, vlastnosti, schopnosti systému včetně zamýšleného účelu a úrovně spolehlivosti a kybernetické bezpečnosti; a
- potřeba lidského dohledu zaměřeného na prevenci nebo minimalizaci rizik.
Další povinností pro poskytovatele systému umělé inteligence, který vykazuje vysoké riziko, je povinná registrace před samotným uvedením na trh nebo do provozu ve veřejně přístupné databázi spravované Komisí.
Poslední dvě kategorie rizikovosti systémů umělé inteligence jsou bez zásadních požadavků.
V případě systémů umělé inteligence rozpoznávajících emoce, manipulující s obrazovým, zvukovým nebo video obsahem (tzv. deepfakes) či typu chatbot, musí být uživatelé obeznámeni se skutečností, že používají systém umělé inteligence, a musí jim být umožněno rozhodnout se, zda budou v jeho dalším využívání pokračovat.
Zbytková kategorie systémů s nízkým nebo minimálním rizikem není limitována žádnými specifickými požadavky a bude moci být uváděna na trh EU téměř bez omezení. AI Akt však předpokládá vznik kodexů chování, které budou motivovat k dobrovolnému plnění požadavků kladených na systémy umělé inteligence s vysokým rizikem a případně přidají některé další dílčí požadavky v souvislosti s udržitelností životního prostředí.
Kategorii tzv. foundation models či general-purpose AI models
Během přípravy finálního znění bylo doplněno odvětví general-purpose AI models v reakci na technologický vývoj spojený s úspěchem ChatGPT.
Základní charakteristikou foundation models je jejich testování na velkém množství dat, schopnost zpracovávat a „pochopit“ různorodé informace, o kterých následně podají obecný výstup a také přizpůsobivost široké škále odlišných úloh.
Vzhledem k potřebě právní regulace za účelem zajištění bezpečnosti, důvěryhodnosti a podpory inovací a celkové konkurenceschopnosti, se zavadí také nové požadavky na poskytovatele. Nově budou muset poskytovatelé pro tyto modely vytvořit detailní technickou dokumentaci.
Pokud jde o specifický foundation model známý pod názvem generativní systém umělé inteligence, který je určený k vytváření obsahu, jako je text, obrázky, video i audio, okruh požadavků kladený na poskytovatele se rozšiřuje. Za účelem zachování transparentnosti mají poskytovatelé povinnost uvádět, že daný obsah byl vygenerován generativním systémem umělé inteligence, a také implementovat dostatečné záruky k zajištění generování obsahu v souladu s právními předpisy.
Nejdiskutovanější byl bezesporu požadavek na zveřejňování přehledu dat podléhajících ochraně autorského práva, které generativní systém využívá ke svému vývoji a učení za účelem poskytnutí co nejrelevantnějších informací uživatelům. Tato povinnost má za cíl předcházet porušování autorských práv. Generativní systémy často vytvářejí obsah velmi podobný uměleckým dílům, přičemž však není možné prokázat, zda systém vygeneroval obsah samostatně nebo se ve velké míře inspiroval jiným dílem a narušil tak stávající autorská práva.
Regulační pískoviště
AI Akt zřizuje tzv. regulační pískoviště (sandbox). Jedná se o kontrolované prostředí, ve kterém bude umožněno systém umělé inteligence otestovat v reálných podmínkách před jeho uvedením na trh, a podchytit či odstranit případné nedostatky.
Poskytovatelé mohou v testovacím prostředí využívat osobní údaje, aniž splňují podmínky dle Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (GDPR).
Nové instituce
Další novinkou je zřízení Evropské rady pro umělou inteligenci složené ze zástupců členských států a Komise, jejíž agendou je především usnadnění provádění AI Aktu a harmonizace. Na vnitrostátní úrovni jsou členské státy povinny zřídit libovolné množství dozorových orgánů, které budou dohlížet na správné provádění AI Aktu.
Výhody/nevýhody a vliv na běžný život
Umělá inteligence je čím dál více využívanou technologií a zasahuje do většiny oblastí každodenního života. Vzhledem k čím dál frekventovanějšímu investování do vývoje umělé inteligence se budeme se systémy umělé inteligence setkávat častěji. Již delší dobu se s nimi setkáváme na každodenní bázi například v podobě chatbotů, které radí zákazníkům na některých webových stránkách. Své využití našla umělá inteligence i při personalizaci reklam, v medicíně, automobilovém průmyslu a mnoha dalších oblastech.
Dle publikované zprávy OECD o dopadu umělé inteligence na trh práce jejích členských států[1] spadá přibližně 27 % všech pracovních pozic do kategorie vysoce ohrožených automatizací, přičemž v České republice je procento vyšší, a to 35 %.
Mezi nejvíce ohrožené pozice patří povolání vyžadující vysokou kvalifikaci a léta zkušeností, tj. lidé pracující v oblasti medicíny, financí, práva, strojírenství a obchodu. Paradoxně výzkumy ukazují, že lidé vykonávající povolání v těchto odvětvích využívají umělou inteligenci nejvíce a její přínos hodnotí velmi pozitivně. Přínosy umělé inteligence na pracovní trh pak jsou spojeny nejen se snížením nákladů, ale také se zvýšením produktivity a spokojenosti zaměstnanců, v důsledku snížení únavných a potenciálně životu nebezpečných úkolů. Mimo výhod spojených s pracovním trhem nabízí umělá inteligence nové možnosti ve veřejné dopravě, energetice, školství a zelené ekonomice.
Na druhou stranu se s umělou inteligencí pochopitelně pojí i negativa. Vzhledem k tomu, že se systémy umělé inteligence neustále vyvíjí a učí, osvojují si nežádoucí vzorce chování, a vniká tak riziko adaptace neobjektivních závěrů v souvislosti s přetrvávajícími společensky nežádoucími jevy – diskriminace na základě pohlaví, diskriminace osob se zdravotním postižením, etnických či jiných menšin. Mimo to bude využívání systémů umělé inteligence znamenat postupnou redukci až eliminaci pracovních míst, zásahů do soukromí jedinců, který je v rámci zachování soukromí nezbytné minimalizovat, a dále narušení hospodářské soutěže v situacích, kdy dojde ke kumulaci významných informací pouze některými soutěžiteli.
Závěr
Umělá inteligence je na vzestupu a bude čím dál více zasahovat do životů široké veřejnosti. Je proto klíčové přizpůsobit se vývoji a těžit z benefitů, které s sebou umělá inteligence přináší, spíše než podlehnout jejím negativům. Zásadním tématem je pak právní regulace a právní konsekvence užití technologií umělé inteligence v podnikatelských a dalších aktivitách.
V dnešní době dochází při využívání systémů umělé inteligence k situacím, které nejsou právními předpisy blíže řešeny a dostávají se tak poskytovatelé, uživatelé i jiné osoby do právního vakua, které je třeba vyplnit. Přestože je regulace umělé inteligence ještě ve svých začátcích, schválené znění AI Aktu je prvním krokem, jenž napovídá, jakým směrem se bude EU dále v oblasti regulace AI ubírat.
Vývoj v oblasti regulace umělé inteligence, zejména implementaci AI Aktu na národní úrovni, pro Vás budeme v PEYTON legal sledovat.
[1]OECD, OECD Employment Outlook 2023, ARTIFICAL INTELLIGENCE AND THE LABOUR MARKET. V: OECD Publishing. [online]. 11. 07. 2023. [cit.2023-28-07]. Dostupné z: OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market | READ online (oecd-ilibrary.org)
Mgr. Jakub Málek, managing partner – malek@plegal.cz
Mgr. Kateřina Vyšínová, advokátní koncipientka – vysinova@plegal.cz
13. 6. 2024