Základní premisa, kterou chceme zdůraznit, je, že právo musí i v éře technologií sloužit lidskosti – chránit důstojnost, svobody a práva člověka. Pevně věříme, že s tímto východiskem budete rádi číst náš dnešní příspěvek. Jak toho ale dosáhnout tváří v tvář rychlému rozvoji AI, a zná dnes právo cesty, jak toho dosáhnout?
V první řadě je třeba si klást otázku, zda má právo sledovat, anebo utvářet realitu – to je jakási debata mezi přirozenoprávní a pozitivně-právní teorií. Pokud by debata ohledně práva a AI měla být určující, pak právu bohužel nezbývá, než společenský vývoj jenom sledovat takříkajíc „zezadu“, případně překotný vývoj dohánět. Ostatně ale nejde o nic nového – nejrůznější lidskoprávní kodifikace, které dnes považujeme za zásadní, a úplný standard, také byly ve svojí době teprve reakcí na nejrůznější nedostatky.
Jsme tedy přesvědčeni, že pokud by měla být někam směřována snaha právníků a zákonodárců, nebylo by to v dnešní době ani tak k vymezení technických metod, regulací a specifických norem týkajících se využití umělé inteligence, ale stanovení těch úplně nejzákladnějších principů, které by jakýkoliv vývoj a budoucí použití AI měl dodržet. Ve svojí podstatě by měla jakákoliv právní ambice směřovat k vymezení základních principů.
Z našeho pohledu jsou základní právně-etické hranice využití AI následující:
Jakkoliv jsme zmínili, že právo zatím spíše zpovzdálí, je pravdou, že na poli Evropské unie existuje komplexní regulace AI v podobě Aktu o umělé inteligenci (tzv. AI Act) ze srpna roku 2024. Jde o relativně průlomový právní předpis, který jako první na světě systematicky upravuje vývoj a nasazení AI technologií v tak širokém měřítku. Je založen na přístupu hodnocení rizikovosti AI, kdy jednotlivé systémy třídí na celkem 4 třídy podle toho, zda mohou AI systémy představovat riziko pro zdraví, bezpečnost nebo základní práva. Od „zatřídění“ do jednotlivé z kategorií se pak logicky odvíjí i potřeba jejich regulace.
Jde o systémy zcela nepřijatelné, systémy s vysokým rizikem, omezeným rizikem a minimálním rizikem.
Mezi ty nejproblematičtější, zcela nepřijatelné, systémy patří například systémy pro sociální hodnocení osob (social scoring), inspirované obávaným čínským „sociálním kreditem“. AI Act tedy zakazuje používání AI k hodnocení či klasifikaci lidí na základě jejich chování nebo osobních rysů, pokud by to vedlo k jejich znevýhodnění, diskriminaci, či narušení lidské důstojnosti. Mezi nežádoucí a vysoce rizikové patří například také AI algoritmy manipulující veřejným míněním – třeba na sociálních sítích podsouvající nepostřehnutelné emocionálně vyhrocené obsahy, které mají lidi ovlivnit určitým způsobem. Mezi nežádoucí AI act řadí též prediktivní policejní systémy založené čistě na profilech osob, nebo masivní rozpoznávání obličejů na veřejných místech.
Je přitom potřeba vnímat, že pokud je AI nástrojem, tak je katalyzátorem pro toho, kdo ji vede.
Co je v kontextu této myšlenky, tj. jakéhosi „tahání za nitky“ na AI Actu zajímavé, je jeho článek 2, který vymezuje jeho působnost. Jeví se totiž, že primárně necílí na stát. Např. v jeho odst. 3 – se totiž uvádí například následující: „Toto nařízení se nevztahuje na systémy AI pouze tehdy a do té míry, pokud jsou uváděny na trh nebo do provozu nebo jsou používány se změnami nebo bez nich výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.“ Na první dobrou je cítit, že se vytváří poměrně silný prostor pro to, aby se tato regulace širokého spektra užití a vývoje AI nedotkla.
Stručně řečeno, je AI Act vítaným prvním krokem k regulaci AI– zakazuje nejkřiklavější zneužití (sociální skóre, skrytou manipulaci, diskriminační sledování) a snaží se zavádět pravidla pro bezpečnou a transparentní AI. Hodnotové ukotvení by však mělo být z mého pohledu přednější, a daleko silnější.
Naše Listina základních práv a svobod zaručuje klíčová lidská práva – v době jejího přijetí byla „spotřební“ AI, pokud vůbec, na úrovni programů například zajišťujících počítačového protihráče na šachy či dámu.
Dnes však AI vystupuje jako nový faktor, který může výkon základních práv zásadně ovlivňovat – ať už pozitivně (usnadněním některých práv, přístupu k informacím apod.), nebo negativně – omezením soukromí, diskriminací, manipulací voličů – případně výraznou amplifikací žádoucích i nežádoucích jevů.
Proto jistě není zcela mimo myšlenka, že by mohla vzniknout samostatná listina či deklarace principů pro vývoj a využití AI, který by lidem zaručil práva a svobody v této zcela nové oblasti, a jež by stanovila bazální hodnotový a právní rámec specificky pro oblast umělé inteligence. Tato AI listina by nepřebírala roli stávající Listiny základních lidských práv, ale doplnila by ji tam kde se objevují nové výzvy související s AI – například zajistila svobodu od toho, aby bylo do již existujících základních lidských práv zasahováno na základě AI.
Současně se jeví smysluplným v digitální době mezi základní práva člověka stanovit i ochranu před AI-tak jako je dnes zaručena osobní svoboda článkem 8 by měla být zaručena i „digitální“ svoboda – právo aby člověk nemusel být součástí světa výpočetní techniky, případně aby o jeho právech a povinnostech nerozhodovala výhradně AI bez možnosti účinné kontroly a přezkumu. Cílem takové „listiny“ nebo doplnění listin stávajících by pak bylo vytyčení takových mantinelů.
V rámci této debaty je více než na místě si u překotného rozvoje klást otázku cui bono? Komu je takový rozvoj ku prospěchu, a do jaké míry má cenu kvůli němu „obětovat“ ústup lidskosti. A právě takovou hranici je možné, jistě ne rigidně striktně a bez dalšího, ale alespoň principálně nastavit – hodnotovým ukotvením. To zda bude pak AI užívána na gamblerských stránkách nebo v medicíně je pak již spíše otázkou politických řešení a priorit.
Na začátku jsme zmínili, že jednou z otázek je odpovědnost, resp. přičitatelnost v případě AI. Základní právní postulát, který považujeme za nutný je ten, že umělá inteligence nemá a nesmí mít právní subjektivitu. AI není právní osobou, které by právo přiznávalo vlastní práva či povinnosti, a jakékoli jednání AI je třeba přičítat nějakému člověku či lidské právnické osobě. Tento princip přičitatelnosti je klíčový pro udržení odpovědnosti v éře strojů.
Tento princip také chrání společnost před zneužitím AI jako fíkového listu. Kdyby měla AI vlastní právní subjektivitu, hrozilo by, že se vytvoří účelové “AI entity” právě k obcházení zákona (např. AI firma učiní protiprávní rozhodnutí, ale jelikož je to AI, nikdo za to nemůže jít do vězení). Takové scénáře musíme utnout. Právo musí jasně říct: tvůrci a uživatelé AI nesou plnou odpovědnost za její činy, stejně jako za činy jiných nástrojů nebo zaměstnanců.
Z hlediska práva by mělo vždy platit, že ať už bude jakkoliv sofistikovaný, vždy bude (má být) AI sofistikovaným automatem a jako takový je to objekt právních vztahů, ne subjekt.
Nemůžeme se nedotknout představy, na kterou jsme často tázáni, je zda může AI nahradit justici a soudce. Spravedlivý proces není jen mechanická aplikace paragrafů. Zahrnuje posouzení kontextu, osobnosti účastníků, často morální dilemata a hodnotové úvahy, které, pevně věříme, přesahují data v počítači. Lidský soudce se zodpovídá společnosti, má danou nezávislost, ale i odpovědnost a jeho rozhodnutí lze veřejně kritizovat, odvolat se proti němu a vyžadovat odůvodnění v lidsky pochopitelném jazyce. v soudnictví má mít AI jen podpůrnou roli, nikdy ne roli rozhodčí. Pomáhat může – například jako nástroj pro vyhledávání judikatury, automatickou klasifikaci dokumentů, nebo eventuálně poradní systém, který nabídne soudci návrh rozhodnutí (ovšem soudce ho musí moci přezkoumat a případně odmítnout). Ale konečný rozsudek musí vyhlašovat člověk, zejména pokud jej vynáší nad dalšími lidmi.
Summa summarum, každé nasazení AI musí projít testem základních práv: Pomáhá lidem, nebo jim potenciálně bere nějaké právo? Pokud bere, musíme zvážit, zda takový zásah je nutný a přiměřený , případně zda něčemu pomáhá, a pokud ano, tak komu. Etické a právní hranice pro AI tedy kopírují hranice vytyčené našimi ústavními hodnotami. Tou nejvyšší hodnotou je z mého pohledu člověk a jeho důstojnost.
AI nesmí být destruktivní pro lidskost. Ani ta nejgeniálnější umělá inteligence nemá ospravedlnit potlačení toho, co z nás dělá lidi – tedy naší svobodné vůle, kreativity, empatie, společenské sounáležitosti. Zákony upravující AI by proto měly být prostoupeny humanistickým duchem: technika má sloužit člověku, ne člověk technice. V praxi to znamená požadavky, o nichž jsme mluvili – lidský dohled, možnost kontroly a vypnutí AI, priorita lidského rozhodnutí v klíčových otázkách a podobně.
S oblibou říkáme, nejen o AI, že je dobrým sluhou a špatným pánem. Proto jsme přesvědčeni, že právo je tu od toho, aby stálo na straně člověka, chránilo jeho práva a důstojnost před jakoukoli hrozbou – byť by přicházela například v podobě jedniček a nul, kvarků či bytů nebo prostě v podobě chladné dokonalé logiky strojů. Věříme, že s rozumem, odpovědností a úctou k našim hodnotám dokážeme AI využít pro dobro a předejít jejím stinným stránkám.
Právo a AI tak nemusí stát proti sobě; naopak, dobré právo je klíčem k tomu, aby AI skutečně sloužila lidstvu.
Tým AK Sudolská
Advokátní kancelář AK Sudolská poskytuje právní služby klientům působícím v nejširším spektru oborů podnikání. Vždy na nejvyšší profesionální úrovni a to ve všech oblastech práva se zvláštním zaměřením na oblast práva obchodního.
Italská 1219/2, 120 00 Praha 2
Mobil: (+420) 777 122 208
Tel.: (+420) 273 130 806
E-mail: office@aksudolska.cz
Web: www.aksudolska.cz