Co Vás zrovna
zajímá.

Využití AI a ochrana osobních údajů

AI systémy mohou využívat osobní údaje zejména k trénování modelů strojového učení, také s nimi pracují při samotné činnosti a zpracování dotazů a promptů. Využití osobních údajů pak činí zadání konkrétnější a výsledky tedy přesnější. Současně mohou existovat AI systémy specifikovat postavené na práci s osobními údaji a jejich zpracování. Je zásadní, aby osobní údaje byly zpracovávána odpovědně a v souladu s předpisy o ochraně soukromí.

Stanovisko EDPB
Dne 17. prosince 2024 přijal Evropský sbor pro ochranu osobních údajů („EDPB“) Stanovisko č. 28/2024 k některým aspektům ochrany osobních údajů při zpracování osobních údajů v kontextu AI modelů („Stanovisko“)[1]. Toto stanovisko bylo vypracováno na základě žádosti Irské komise pro ochranu osobních údajů, na základě článku 64 odst. 2 Obecného nařízení o ochraně osobních údajů EU („GDPR“).

Jedná se v současné době o poměrně zásadní vyjádření v oblasti ochrany osobních údajů ve vztahu k AI vzhledem k zaměření na klíčové aspekty zpracování osobních údajů při vývoji a nasazení AI modelů. Stanoviska EDPB sice nejsou právně závazná, ale mají silný doporučující charakter a poskytují jednotný výklad pravidel GDPR napříč členskými státy EU.

Dozorové orgány ochrany osobních údajů v členských státech EU („DPA“) se těmito stanovisky často řídí, protože odrážejí harmonizovaný přístup k ochraně osobních údajů v EU, je tedy určitě na místě tomuto Stanovisku při sledování vývoje vztahu ochrany osobních údajů a AI věnovat pozornost.

Stanovisko odpovídá na čtyři oblasti specifických otázek:

i. Jak je to s anonymitou AI modelů při zpracovávání osobních údajů – tedy mohou být AI modely anonymní?

ii. Lze se opřít o právní základ oprávněného zájmu při zpracování osobních údajů v souvislosti s AI?

iii. Jaká jsou přiměřená očekávání jednotlivců ohledně zpracování jejich osobních údajů v AI modelech?

iv. Jaký je dopad nezákonného zpracování osobních údajů v rané fázi vývoje na zákonnost následného zpracování nebo provozu AI modelu?

Než si rozebereme odpovědi na jednotlivé okruhy otázek, je zajímavé poukázat na pro praxi velmi zajímavé koncepty a interpretace ze strany EDPB, které jsou pro oblast AI ve vztahu k GDPR novinkou: EDPB představuje své vlastní pojetí určitých fází životního cyklu AI modelů, jako jsou „vývoj“ (v angličtině „development“) a „nasazení“ (v angličtině „deployment“).

Vývoj AI modelu chápe EDPB jako všechny fáze předcházející nasazení, včetně tvorby kódu, sběru osobních údajů pro trénování, předzpracování těchto údajů a samotného trénovacího procesu.

Fáze nasazení se naopak vztahuje na všechny fáze, kdy je AI model aktivně využíván po ukončení vývoje.

EDPB u jednotlivých vývojových fází poukazuje na to, že vývoj a nasazení mohou představovat samostatné zpracovatelské činnosti s různými účely, které vyžadují individuální posouzení pro jednotlivé právní základy zpracování, soulad s požadavky na ochranu osobních údajů a odpovědnosti správce údajů. EDPB samozřejmě upozorňuje na to, že životní cyklus AI není v praxi striktně rozdělen do těchto dvou fází a že některé zpracovatelské činnosti, zařazené například do fáze vývoje, se mohou objevovat i ve fázi nasazení (například u dotrénování modelu).

Teď tedy ke konkrétním vyjádřením k položeným otázkám v rámci Stanoviska:

Anonymita AI modelů
EDPB uvádí, že posouzení, ať už ze strany správce či DPA, zda lze AI model vyvinutý pomocí osobních údajů považovat za anonymní, by mělo být prováděno případ od případu (tzv. „case by case basis“).

EDPB má za to, že AI model může být za anonymní považován pouze tehdy, když kumulativně naplňuje následující předpoklady:

  1. pravděpodobnost přímého (včetně pravděpodobnostního) získání osobních údajů o jednotlivcích byla zanedbatelná; a
  2. pravděpodobnost získání těchto údajů z dotazů, ať už úmyslně či neúmyslně, byla rovněž zanedbatelná.

EDPB zdůrazňuje potřebu důkladného vyhodnocení pravděpodobnosti identifikace subjektu údajů na základě získaných dat, aby bylo možné model klasifikovat jako anonymní. Toto hodnocení vychází z Recitálu 26 GDPR, který zdůrazňuje rozumné prostředky, které by správce nebo jiná osoba mohla využít, a měl by zohledňovat potenciální nechtěné znovuvyužití nebo zveřejnění modelu.

DPA by měly dle Stanoviska při posuzování anonymizace vyžadovat dokumentaci od správců osobních údajů, která zahrnuje technické a organizační opatření, testy odolnosti modelu vůči útokům a analýzy rizik identifikace. Například ochrana proti tzv. regurgitaci dat, kdy model neúplně reprodukuje trénovací data, je klíčová.

Vývoj a nasazení AI modelu na základě oprávněného zájmu
EDPB zdůrazňuje, že oprávněný zájem podle čl. 6 odst. 1 písm. f GDPR nemůže být „výchozím“ právním základem pro zpracování osobních údajů při trénování a používání AI modelů.

Je přijatelný pouze tehdy, pokud správce prostřednictvím tříkrokového testu proporcionality oprávněného zájmu prokáže, že zpracování osobních údajů související s AI modelem je přiměřené, nezbytné a účinné pro dosažení zamýšleného účelu.

Stanovisko uvádí spíše obecné úvahy, které by měly být brány v potaz při posuzování, zda je oprávněný zájem vhodným právním základem pro zpracování osobních údajů při vývoji a nasazení AI modelů. EDPB odkazuje na svůj dřívější návod k oprávněnému zájmu, který obsahuje tříkrokový test k posouzení vhodnosti tohoto právního základu. Jako příklad uvádí Stanovisko použití oprávněného zájmu pro konverzační agenty nebo ke zlepšení kybernetické bezpečnosti.

Tříkrokový test tedy probíhá následovně:

  1. Je oprávněný zájem zákonný, jasně definovaný a reálný?
  2. Je zpracování skutečně nezbytné pro dosažení oprávněného zájmu?
  3. Nepřevažuje oprávněný zájem nad právy subjektů údajů?

Přiměřená očekávání jednotlivců
Stanovisko vymezuje konkrétní kritéria, která mohou DPA zvážit při posuzování, zda jednotlivec mohl přiměřeně očekávat určité zpracování svých osobních údajů v AI modelech.

Tato kritéria zahrnují: (a) veřejnou dostupnost údajů; (b) povahu vztahu mezi subjektem údajů a správcem; (c) povahu poskytované služby; (d) kontext sběru údajů; (e) zdroj údajů; (f) možné budoucí využití AI modelu; a (g) povědomí subjektu údajů o tom, že jeho údaje jsou online.

Stanovisko podtrhává, že transparentnost je skutečně klíčová, zvláště u technologií zahrnujících web scraping nebo zpracování veřejně dostupných dat. Organizace takto využívající AI tedy musejí zajistit, aby subjekty údajů měly přístup k jasným a srozumitelným informacím o zpracování jejich osobních údajů.

Dopad nezákonného zpracování na následné operace AI modelu
Stanovisko zkoumá různé situace, kdy by nezákonné zpracování osobních údajů při vývoji AI modelu mohlo ovlivnit jeho následné použití.

Dle EDPB existují tři pravděpodobné scénáře nezákonného zpracování:

  1. Nezákonně zpracované osobní údaje jsou stále součástí modelu a jsou používána tým samým správcem. Hodnocení závisí na tom, zda jde o samostatné zpracování a zda byl dodržen princip právního základu.
  2. Model s nezákonně zpracovanými osobními údaji je použit jiným správcem. Tento správce musí provést vlastní hodnocení souladu s GDPR.
  3. Model byl anonymizován před dalším použitím. V takovém případě se GDPR na další použití nevztahuje, pokud nedochází k dalšímu zpracování osobních údajů.

EDPB se zaměřuje také na to, jak nezákonné zpracování ve fázi vývoje může ovlivnit zákonnost následného zpracování nebo provozu AI modelu (tj. souladu s čl. 5 odst. 1 písm. a a čl. 6 GDPR).

V případech porušení těchto článků může být dozorovým úřadem nařízena nápravná opatření, jako jsou:

  • pokuty,
  • dočasná omezení zpracování,
  • vymazání části nebo celého datasetu,
  • nebo přeškolení AI modelu.

Stanovisko neřeší, jak se tyto povinnosti správce promítají na ostatní účastníky řetězce AI (vývojáře, poskytovatele nebo provozovatele) definované v nyní často skloňovaném AI Aktu. Tyto případy se dle EDPB i nadále posuzují individuálně.

Závěr
Stanovisko zdůrazňuje závazek EDPB zajistit, aby vývoj AI odpovídal zásadám GDPR a rovnováze mezi inovacemi a ochranou soukromí.

AI technologie přinášejí velké množství etických a právních otazníků. Organizace tedy musejí dbát na to, aby vývoj a nasazení AI modelů bylo v souladu s GDPR. Klíčovými faktory jsou transparentnost, minimalizace osobních údajů, zajištění práv subjektů údajů a odpovědné zacházení s osobními údaji.

Důsledky jsou v praxi pro správce dvojí: dokumentace a hodnocení rizik. Správci údajů tedy musí uchovávat komplexní dokumentaci, která prokazuje, že byla přijata opatření pro anonymizaci osobních údajů, hodnocení oprávněného zájmu, Soulad s principy ochrany osobních údajů.

Stanovisko zdůrazňuje potřebu pravidelného vyhodnocování rizik, posuzování potenciálních dopadů na základní práva subjektů údajů a v neposlední řadě konstantní zohledňování technologického vývoje EDPB sama upozorňuje, že technologie umělé inteligence se rychle vyvíjejí, a že její doporučení by měla být vykládána v kontextu tohoto technologického pokroku. Tímto flexibilním přístupem chce zajistit, že stanovisko zůstane relevantní, zároveň však poskytuje jasné principy pro zajištění souladu. Stanovisko představuje významný krok k objasnění aplikace principů ochrany osobních údajů na AI modely, poskytuje praktické pokyny a zároveň zachovává potřebnou flexibilitu pro řešení budoucího technologického vývoje.

V případě jakýchkoli dotazů k tématu právní regulace AI a/nebo zpracování osobních údajů jsme Vám v PEYTON legal k dispozici.


[1] Stanovisko v původním znění je dostupné zde: https://www.edpb.europa.eu/our-work-tools/our-documents/opinion-board-art-64/opinion-282024-certain-data-protection-aspects_en

 

Mgr. Tereza Pechová, advokátní koncipientka – pechova@plegal.cz

Mgr. Jakub Málek, managing partner – malek@plegal.cz

 

www.peytonlegal.cz

 

16. 1. 2025

 

Zpět na články