Súčasná právna regulácia umelej inteligencie v EÚ

Lion Legalion lave1

Umelá inteligencia (AI) sa stáva neoddeliteľnou súčasťou našich životov v rôznych oblastiach – od podnikania cez medicínu až po každodenné služby. Práve preto bolo v Európskej únii nevyhnutné zaviesť legislatívne opatrenia na reguláciu jej využívania, aby sa zabezpečilo, že tieto technológie budú bezpečné a budú rešpektovať základné práva a slobody občanov únie.

 

Nariadenie o umelej inteligencii

V júni 2024 bolo prijaté nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 o umelej inteligencii, ktoré stanovuje harmonizované pravidlá pre jej vývoj a používanie. Toto nariadenie je jedným z prvých svojho druhu vo svete a jeho cieľom je zabezpečiť, aby technológie umelej inteligencie, ktoré sa dostanú na trh EÚ, boli bezpečné a spoľahlivé.

Nariadenie o umelej inteligencii rozdeľuje systémy umelej inteligencie do štyroch kategórií podľa úrovne rizika:

  • Neprijateľné riziko – niektoré umelé inteligencie sú úplne zakázané, napríklad systémy na sociálne skórovanie (tzv. social scoring) alebo biometrická identifikácia v reálnom čase vo verejných priestranstvách (s určitými prísnymi výnimkami, napríklad pre orgány činné v trestnom konaní).
  • Vysoké riziko – ide o systémy, ktoré môžu mať výrazný vplyv na zdravie, bezpečnosť alebo práva osôb, ako sú umelé inteligencie používané v zdravotníctve, doprave, školstve, zamestnávaní, v oblasti azylu a migrácie. Tieto systémy musia spĺňať prísne požiadavky na transparentnosť, bezpečnosť a dohľad.
  • Obmedzené riziko – patria sem napríklad chatboty a systémy na spracovanie textu. Tu sa vyžaduje, aby používatelia boli informovaní, že interagujú s umelou inteligenciou.
  • Minimálne riziko – zahŕňa umelú inteligenciu, ktoré nepredstavuje významné riziko pre jednotlivcov, ako sú video hry alebo spamové filtre. Na tieto systémy sa vzťahujú len minimálne regulačné požiadavky.

Jedným z hlavných pilierov tohto nariadenia je posudzovanie zhody, čo znamená, že umelá inteligencia, ktorá bude uvedená na trh v EÚ, musí prejsť prísnym posudzovaním zhody – podobne ako to poznáme napríklad pri elektronických zariadeniach s označením CE. Táto kontrola je zameraná na ochranu spotrebiteľov, zabezpečenie bezpečnosti a minimalizáciu rizík spojených s používaním umelej inteligencie.

Cieľom nariadenia je totiž zabezpečiť, aby bola každá umelá inteligencia v rámci EÚ bezpečná, transparentná, spoľahlivá a rešpektovala základné ľudské práva.

 

Nariadenie o umelej inteligencii patrí teda do kategórie posudzovania zhody, čo platí pre určité systémy umelej inteligencie, najmä pre tie, ktoré sú klasifikované ako vysokorizikové. Vysokorizikové systémy umelej inteligencie musia prejsť procesom posudzovania zhody, aby mohli byť legálne uvedené na trh v EÚ.

Pri posudzovaní zhody sa zisťuje súlad umelej inteligencie najmä s nasledovnými kritériami:

  • Riadenie rizík – poskytovatelia musia identifikovať a minimalizovať riziká spojené s používaním umelej inteligencie.
  • Transparentnosť a vysvetliteľnosť – poskytovatelia musia zabezpečiť, že užívatelia a regulačné orgány môžu pochopiť, ako umelá inteligencia funguje, ako spracováva údaje a ako správne interpretovať jej výstupy.
  • Ochrana dát – systému umelej inteligencie musia byť v súlade s nariadením GDPR a inými predpismi na ochranu osobných údajov.
  • Záznam o činnosti – poskytovatelia musia viesť dokumentáciu o tom, ako umelá inteligencia funguje a ako bola vyvinutá.
  • Ľudský dohľad– po uvedení na trh musí byť systém umelej inteligencie pravidelne monitorovaný, aby sa zabezpečilo, že bude bezpečný a spoľahlivý počas celého životného cyklu.

Podľa nariadenia o umelej inteligencii platí, že posudzovanie zhody pre vysokorizikové systémy umelej inteligencie zahŕňa niekoľko krokov, ktoré sú navrhnuté tak, aby zabezpečili, že umelá inteligencia je bezpečná, transparentná a v súlade s právnymi požiadavkami EÚ.

 

Kroky pre posúdenie zhody:

  1. Identifikácia rizikovej kategórie umelej inteligencie systému: Najprv je potrebné určiť, či systém patrí do kategórie vysokorizikových systémov. Tieto systémy sú určené na základe kritérií uvedených v nariadení o AI a jeho prílohách. Vysokoriziková umelá inteligencia zahŕňa napríklad aplikácie, ktoré môžu mať významný dopad na bezpečnosť alebo základné práva osôb. Ide najmä o systémy používané v zdravotníctve, doprave, vzdelávaní alebo pri posudzovaní bonity na finančných trhoch a pod.
  2. Posúdenie zhody: Umelá inteligencia musí prejsť procesom posudzovania zhody, ktorý je vykonávaný buď interným tímom spoločnosti alebo nezávislou tretou stranou (notifikovanou osobou), v závislosti od úrovne rizika. Cieľom tohto procesu je overiť, či systém umelej inteligencie spĺňa technické a právne požiadavky uvedené v nariadení o AI. Posúdenie zahŕňa najmä testovanie umelej inteligencie, kontrolu bezpečnosti, transparentnosti, ochrany údajov a etických pravidiel.
  3. Technická dokumentácia: Poskytovatelia systémov umelej inteligencie musia pripraviť technickú dokumentáciu, ktorá bude obsahovať:
    • popis systému umelej inteligencie a jeho funkcionality;
    • informácie o údajoch použitých na tréning a validáciu systému;
    • analýzu rizík a kroky na ich zmiernenie;
    • opatrenia na zabezpečenie kontinuálnej bezpečnosti a spoľahlivosti systému po uvedení na trh .
  4. Certifikát zhody: V prípade, ak posudzovanie zhody vykonávala notifikovaná osoba, poskytovateľ obdrží aj certifikát zhody. Certifikát zhody vydaný notifikovanou osobou a je platný po dobu 4 alebo 5 rokov, a to v závislosti od konkrétnej umelej inteligencie. Systémy umelej inteligencie, ktoré nedodržia vyššie uvedený postup, môžu byť z trhu stiahnuté a ich prevádzkovatelia môžu čeliť sankciám.
  5. Monitorovanie po uvedení na trh: Po získaní certifikátu zhody musia poskytovatelia umelej inteligencie zabezpečiť, aby bol systém umelej inteligencie pravidelne monitorovaný a aktualizovaný v prípade, že sa vyskytnú nové riziká alebo problémy počas jeho používania.

Na základe splnenia týchto kritérií môže poskytovateľ AI vyhotoviť EÚ vyhlásenie o zhode, ktoré potvrdzuje, že AI splnila všetky regulačné normy pred uvedením na trh v EÚ. Toto EÚ vyhlásenie zhody slúži ako dôkaz, že AI systém bol posúdený a je v súlade s predpismi na ochranu bezpečnosti a práv občanov.

Pre každú umelú inteligenciu vyhotoví poskytovateľ EÚ vyhlásenie o zhode, ktorým na seba preberá plnú zodpovednosť za splnenie všetkých regulačných pravidiel a noriem. Poskytovateľ vyhotoví EÚ vyhlásenie o zhode tak pre prípad, že posudzovanie zhody vykonal jeho interný tím, ako aj pre prípad, že posúdenie zhody vykonala notifikovaná osoba.

Súčasne musia vysokorizikové systému umelej inteligencie, ktoré majú EÚ vyhlásenie o zhode, obsahovať aj označenie CE, a ak posudzovanie zhody vykonala notifikovaná osoba, aj identifikačné číslo notifikovanej osoby.

Právne poradenstvo v oblasti Umelej Inteligencie

Kontaktujte nás

 

Technologicky neutrálna a rizikovo orientovaná regulácia

Nariadenie o AI bolo vytvorené tak, aby bolo technologicky neutrálne, čo znamená, že sa vzťahuje na všetky systémy umelej inteligencie bez ohľadu na to, či sú postavené na súčasných alebo budúcich technológiách.

Súčasne je nariadenie o AI rizikovo orientované, čo znamená, že sa sústreďuje najmä na tie systémy umelej inteligencie, ktoré predstavujú najväčšie riziká pre ľudské práva a bezpečnosť. Niektoré typy umelej inteligencie sú priamo zakázané, ako napríklad systémy používané na social scoring, biometrickú identifikáciu v reálnom čase na verejných priestranstvách či umelé inteligencie využívajúce podprahové techniky ovplyvňovania.

Všetky systémy umelej inteligencie musia spĺňať požiadavky na bezpečnosť, transparentnosť a zodpovednosť, a to najmä v prípadoch, keď môžu mať vážny dopad na zdravie alebo základné práva.

 

Súčasné právne pravidlá aplikovateľné na umelú inteligenciu

Aj keď je regulácia umelej inteligencie relatívne nová, mnohé súčasné právne predpisy, ktoré už existujú v právnych poriadkoch členských štátov, sa budú aplikovať aj na umelú inteligenciu. Umelá inteligencia ako technologický fenomén totiž vstupuje do vyspelého právneho rámca, ktorý už obsahuje rôzne právne inštitúty, napríklad:

  • Náhradu škody: Ak umelá inteligencia spôsobí škodu, bude sa aplikovať právny režim náhrady škody, ktorý už existuje. Napríklad, ak výstup z umelej inteligencie spôsobí finančnú stratu alebo poškodenie majetku, poškodený má právo požadovať náhradu škody podľa platných pravidiel.
  • Ochranu pred nekalosúťažným konaním: umelá inteligencia môže byť použitá na vytváranie falošných alebo manipulovaných informácií, ako napríklad deepfake videá, ktoré môžu poškodiť konkurenčné subjekty na trhu. Právne predpisy o nekalej súťaži, ktoré už existujú, sa preto budú aplikovať aj na prípady, keď je umelá inteligencia zneužitá na nekalosúťažné praktiky.
  • Ochranu pred manipuláciou s trhom: V oblasti finančných trhov bude umelá inteligencia a jej používanie spadať pod existujúce predpisy, ktoré sa týkajú manipulácie s trhom a iných foriem zneužívania trhových mechanizmov. Systémy umelej inteligencie, ktoré by napríklad mohli ovplyvňovať finančné trhy či hodnotu aktív, budú podliehať reguláciám zameraným na ochranu integrity trhov.

Vďaka týmto existujúcim právnym nástrojom sa poskytuje dodatočná ochrana pred rizikami, ktoré prináša používanie umelej inteligencie, aj bez toho, aby bolo nutné vytvárať úplne nové legislatívne mechanizmy.

 

Smernica o mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú umelou inteligenciou

Okrem samotného nariadenia o umelej inteligencii pripravuje EÚ aj smernicu o mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú umelou inteligenciou. Táto smernica je kľúčovým dokumentom, ktorý upraví pravidlá zodpovednosti v prípadoch, keď škodu spôsobí umelá inteligencia.

Smernica stanovuje, že poskytovatelia umelej inteligencie budú mať povinnosť predkladať súdu dôkazy v prípadoch, keď umelá inteligencia spôsobí škodu, a to najmä v prípadoch, ak tieto dôkazy neboli predložené poškodenému. Navyše zavádza koncept vyvrátiteľnej domnienky, ktorá predpokladá príčinnú súvislosť medzi pochybením poskytovateľa umelej inteligencie a škodou spôsobenou jej výstupom, najmä v prípadoch vysokorizikovej umelej inteligencie. Pri bežných systémoch umelej inteligencie sa táto domnienka uplatní len vtedy, ak súd uzná, že pre poškodeného je priveľmi náročné dokázať príčinnú súvislosť.

Cieľom tejto smernice je zabezpečiť, aby poškodení mali jednoduchší prístup k spravodlivosti v prípadoch, keď ku škode došlo používaním umelej inteligencie, a aby poskytovatelia týchto technológií niesli adekvátnu zodpovednosť za ich používanie.

 

Pripravované zmeny a implementácia

Hoci nariadenie bolo prijaté, jeho úplná aplikácia sa bude realizovať postupne v priebehu nasledujúcich rokov. Niektoré časti, ako napríklad prísne zákazy určitých systémov umelej inteligencie, nadobudnú účinnosť už od februára 2025, zatiaľ čo iné, zložitejšie regulácie, sa budú uplatňovať od roku 2026 a neskôr.

Pre podnikateľov, vývojárov a používateľov umelej inteligencie v EÚ to znamená, že sa musia začať pripraviť na implementáciu týchto pravidiel, aby mohli naďalej využívať tieto technológie v súlade s právom.

 

Záver

Súčasná právna regulácia umelej inteligencie v EÚ predstavuje prvý krok k vytvoreniu bezpečného a zodpovedného rámca pre jej používanie.

Tým, že sa zameriava na technologickú neutralitu a rizikovú orientáciu, umožňuje adaptáciu na rýchlo sa meniaci svet umelej inteligencie a zároveň chráni základné práva občanov.

Súčasné právne pravidlá, ktoré už v právnom poriadku existujú, ako náhrada škody, ochrana pred nekalosúťažným konaním či manipuláciou s trhom, poskytujú dodatočnú istotu a ochranu, čo ešte viac upevňuje istotu pri používaní umelej inteligencie. Navyše je pripravovaná aj smernica o mimozmluvnej zodpovednosti, ktorá zabezpečí, že škody spôsobené umelou inteligenciou budú mať jasné a spravodlivé pravidlá odškodnenia.

 

Pre link na eurlex na nariadenie GDPR:

More Law
Less problems