Regulácia umelej inteligencie v EÚ

Lion Legalion lave1

Umelá inteligencia (AI) sa stáva neoddeliteľnou súčasťou našich životov v rôznych oblastiach – od podnikania cez medicínu až po každodenné služby. Práve preto bolo v Európskej únii nevyhnutné regulovať jej využívanie, aby sa zabezpečilo, že tieto technológie budú bezpečné a budú rešpektovať základné práva a slobody občanov únie.

 

Nariadenie o umelej inteligencii

V júni 2024 EÚ prijala nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 o umelej inteligencii, ktoré stanovuje harmonizované pravidlá pre jej vývoj a používanie. Toto nariadenie o AI je jedným z prvých svojho druhu vo svete a jeho cieľom je zabezpečiť, aby technológie umelej inteligencie, ktoré sa dostanú na trh EÚ, boli bezpečné a spoľahlivé.

Nariadenie o AI rozdeľuje systémy umelej inteligencie do štyroch kategórií podľa úrovne rizika:

  • Neprijateľné riziko – niektoré umelé inteligencie sú úplne zakázané, napríklad systémy na sociálne skórovanie (tzv. social scoring) alebo biometrická identifikácia v reálnom čase vo verejných priestranstvách (s určitými prísnymi výnimkami, napríklad pre orgány činné v trestnom konaní).
  • Vysoké riziko – ide o systémy, ktoré môžu mať výrazný vplyv na zdravie, bezpečnosť alebo práva osôb, ako sú umelé inteligencie používané v zdravotníctve, doprave, školstve, zamestnávaní, v oblasti azylu a migrácie. Tieto systémy musia spĺňať prísne požiadavky na transparentnosť, bezpečnosť a dohľad.
  • Obmedzené riziko – patria sem napríklad chatboty, systémy na spracovanie textu, obrazu, zvuku ale aj modely umelej inteligencie na všeobecné účely. Tu sa vyžaduje, aby používatelia boli informovaní, že interagujú s umelou inteligenciou.
  • Minimálne riziko – zahŕňa umelú inteligenciu, ktoré nepredstavuje významné riziko pre jednotlivcov, ako sú video hry alebo spamové filtre. Na tieto systémy sa vzťahujú len minimálne regulačné požiadavky.

 

Zakázané umelé inteligencie

Umelá inteligencia môže byť použitá takmer na čokoľvek, bez ohľadu na to, či je to pre spoločnosť prínosné alebo nie. Preto nariadenie o AI určité spôsoby použitia umelej inteligencie priamo zakazuje.

Zakázaná je napríklad:

  • umelá inteligencia, ktorá používa podprahové techniky alebo účelové manipulatívne alebo klamlivé techniky, aby ovplyvnila rozhodnutia osoby alebo skupiny osôb. Tieto osoby alebo skupiny potom spravia rozhodnutie, ktoré by inak nespravili.
  • umelá inteligencia, ktorá využíva zraniteľné osoby alebo osobitné skupiny osôb z dôvodu ich veku, zdravotného postihnutia, ťažkej osobnej sociálnej alebo ekonomickej situácie s cieľom, aby spravili rozhodnutie, ktoré by inak riadne informované nespravili;
  • umelá inteligencia na tzv. social scoring – teda na hodnotenie alebo klasifikáciu správania osôb alebo ich charakteristík počas určitého obdobia, ktoré vedie k škodlivému alebo nepriaznivému zaobchádzaniu s osobami. Osobám by sa na základe sociálneho skóre neumožňoval prístup k určitým službám, tovaru, vzdelaniu, zamestnaniu a pod.
  • umelá inteligencia na posúdenie alebo predvídanie toho, či osoba spácha trestný čin, a to výlučne na základe profilovania;
  • umelá inteligencia na vytváranie alebo rozširovanie databázy na rozpoznávanie tváre, a to prostredníctvom extrakcie tváre z internetu alebo CCTV;
  • umelá inteligencia na zisťovanie emócii v oblasti pracoviska a vzdelávacích inštitúcii. Tu platí jedna výnimka pre umelú inteligenciu na zdravotné a bezpečnostné účely.
  • umelá inteligencia, ktorá je systémom biometrickej kategorizácie osôb, pričom dochádza ku kategorizácii s cieľom odvodiť ich rasu, politické názory, členstvo v odboroch, náboženské presvedčenie, sexuálnu orientáciu;
  • umelá inteligencia, ktorej účelom je diaľková biometrická identifikácia v reálnom čase vo verejne prístupných priestoroch s cieľom presadzovania práva.

 

Vysokoriziková umelá inteligencia

Vysokorizikové umelé inteligencie sú tie, ktoré môžu mať výrazný vplyv na zdravie, bezpečnosť alebo práva osôb.

Medzi vysokorizikové umelé inteligencie zaraďujeme napríklad:

  • umelá inteligencia ako bezpečnostný komponent výrobku, na ktorý sa vzťahujú harmonizačné predpisy, ako aj umelá inteligencia, ktorá sama je týmto výrobkom;
  • systémy biometrickej identifikácie (systémy diaľkovej biometrickej identifikácie, systémy na biometrickú kategorizáciu podľa citlivých charakteristík osôb, systém na rozpoznávanie emócii);
  • systémy kritickej infraštruktúry, teda umelé inteligencie, ktoré sa majú použiť ako bezpečnostné komponenty v kritickej digitálnej infraštruktúre, cestná premávka, dodávka vody, plynu, elektriny a tepla;
  • systémy používané pri prístupe k vzdelaniu, teda umelé inteligencie, ktoré sa majú použiť na určenie prístupu alebo prijatia do vzdelávacích inštitúcií, na hodnotenie vzdelávacích výstupov, na posúdenie úrovne vzdelania, na zisťovanie zakázaného správania študentov pri skúškach;
  • systémy používané v súvislosti so zamestnancami, teda umelé inteligencie, ktoré sa majú použiť na nábor alebo výber osôb na pracovné miesto, analýzu a filtrovanie žiadostí a na hodnotenie uchádzačov, pri rozhodovaní v pracovnoprávnych vzťahoch, kariérnom postupe, ukončení pracovného vzťahu, monitorovanie a hodnotenie výkonnosti zamestnancov;
  • systémy používané na prístup k základným súkromným a verejným službám, teda umelé inteligencie na hodnotenie oprávnenosti dávok, zdravotnej starostlivosti, na hodnotenie úverovej bonity klienta, bodové ohodnotenie kreditného rizika – okrem AML a finančných podvodov, na hodnotenie a stanovenie cien pre životné a zdravotné poistenie, hodnotenie a klasifikácia tiesňových hovorov a určovania ich priority;
  • systémy používané na presadzovanie práva (odhaľovanie, zisťovanie, vyšetrovanie trestných činov), teda umelé inteligencie na posúdenie toho, či sa osoba stane obeťou trestných činov, na použitie ako polygrafy (detektor lži), na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania, na posúdenie toho či osoba spácha alebo opätovne spácha trestný čin, profilovanie osôb v priebehu vyšetrovania a odhaľovania trestných činov;
  • systémy používané v oblasti migrácie, azylu, teda umelé inteligencie na posúdenie bezpečnostného rizika, rizika neoprávnenej migrácie, zdravotného rizika, ktoré predstavuje osoba žiadajúca o vstup na územie EÚ, na preskúmanie žiadosti o azyl, víza, povolenia na pobyt, v súvislosti s migráciou, azylom a riadením kontroly hraníc;
  • systémy používané v súdnom systéme alebo demokratickom štáte, teda umelé inteligencie na skúmanie a interpretáciu skutkových okolností v justícii alebo v arbitráži alebo na ovplyvňovanie výsledku volieb alebo referenda, volebného správania osôb pri hlasovaní (neplatí pre nástroje na organizovanie, optimalizáciu alebo tvorbu štruktúry politických kampaní z administratívneho a logistického hľadiska).

Všetky tieto umelé inteligencie sa považujú za vysokorizikové. Pre vysokorizikové umelé inteligencie v zásade platí, že pred uvedením na trh EÚ musia prejsť procesom posudzovania zhody.

Posudzovanie zhody umelých inteligencií je jedným z hlavných pilierov nariadenia o AI. To znamená, že vysokoriziková umelá inteligencia, ktorá bude uvedená na trh v EÚ, musí prejsť prísnym posudzovaním zhody – podobne ako to poznáme napríklad pri elektronických zariadeniach s označením CE. Táto kontrola je zameraná na ochranu spotrebiteľov, zabezpečenie bezpečnosti a minimalizáciu rizík spojených s používaním umelej inteligencie.

Cieľom nariadenia o AI je totiž zabezpečiť, aby bola každá umelá inteligencia v rámci EÚ bezpečná, transparentná, spoľahlivá a rešpektovala základné ľudské práva.

Právne poradenstvo v oblasti Umelej Inteligencie

Kontaktujte nás

Posudzovanie zhody vysokorizikovej umelej inteligencie

Nariadenie o AI zaraďujeme teda do kategórie posudzovania zhody, čo platí pre určité systémy umelej inteligencie, najmä pre tie, ktoré sú klasifikované ako vysokorizikové. Vysokorizikové systémy umelej inteligencie musia prejsť procesom posudzovania zhody, aby mohli byť legálne uvedené na trh v EÚ.

Pri posudzovaní zhody sa zisťuje súlad umelej inteligencie najmä s nasledovnými kritériami:

  • Riadenie rizík – poskytovatelia musia identifikovať a minimalizovať riziká spojené s používaním umelej inteligencie.
  • Transparentnosť a vysvetliteľnosť – poskytovatelia musia zabezpečiť, že užívatelia a regulačné orgány môžu pochopiť, ako umelá inteligencia funguje, ako spracováva údaje a ako správne interpretovať jej výstupy.
  • Ochrana dát – systému umelej inteligencie musia byť v súlade s nariadením GDPR a inými predpismi na ochranu osobných údajov.
  • Záznam o činnosti – poskytovatelia musia viesť dokumentáciu o tom, ako umelá inteligencia funguje a ako bola vyvinutá.
  • Ľudský dohľad– po uvedení na trh musí byť systém umelej inteligencie pravidelne monitorovaný, aby sa zabezpečilo, že bude bezpečný a spoľahlivý počas celého životného cyklu.

Podľa nariadenia o AI platí, že posudzovanie zhody pre vysokorizikové systémy umelej inteligencie zahŕňa niekoľko krokov, ktoré sú navrhnuté tak, aby zabezpečili, že umelá inteligencia je bezpečná, transparentná a v súlade s právnymi požiadavkami EÚ.

 

Kroky pre posúdenie zhody:

  1. Identifikácia rizikovej kategórie umelej inteligencie: Najprv je potrebné určiť, či systém patrí do kategórie vysokorizikových systémov. Tieto systémy sú určené na základe kritérií uvedených v nariadení o AI a jeho prílohách. Vysokoriziková umelá inteligencia zahŕňa napríklad aplikácie, ktoré môžu mať významný dopad na bezpečnosť alebo základné práva osôb. Ide najmä o systémy používané v zdravotníctve, doprave, vzdelávaní alebo pri posudzovaní bonity na finančných trhoch a pod.
  2. Posúdenie zhody: Umelá inteligencia musí prejsť procesom posudzovania zhody, ktorý je vykonávaný buď interným tímom spoločnosti alebo nezávislou tretou stranou (notifikovanou osobou), a to v závislosti od úrovne rizika. Cieľom tohto procesu je overiť, či systém umelej inteligencie spĺňa technické a právne požiadavky uvedené v nariadení o AI. Posúdenie zahŕňa najmä testovanie umelej inteligencie, kontrolu bezpečnosti, transparentnosti, ochrany údajov a etických pravidiel.
  3. Technická dokumentácia: Poskytovatelia systémov umelej inteligencie musia pripraviť technickú dokumentáciu, ktorá bude obsahovať:
  • popis systému umelej inteligencie a jeho funkcionality;
  • informácie o údajoch použitých na tréning a validáciu systému;
  • analýzu rizík a kroky na ich zmiernenie;
  • opatrenia na zabezpečenie kontinuálnej bezpečnosti a spoľahlivosti systému po uvedení na trh.
  1. Certifikát zhody: V prípade, ak posudzovanie zhody vykonala notifikovaná osoba, poskytovateľ obdrží aj certifikát zhody. Certifikát zhody vydaný notifikovanou osobou je platný po dobu 4 alebo 5 rokov, a to v závislosti od konkrétnej umelej inteligencie.
  2. Monitorovanie po uvedení na trh: Po získaní certifikátu zhody musia poskytovatelia umelej inteligencie zabezpečiť, aby bol systém umelej inteligencie pravidelne monitorovaný a aktualizovaný v prípade, že sa vyskytnú nové riziká alebo problémy počas jeho používania.

Na základe splnenia týchto kritérií môže poskytovateľ umelej inteligencie vyhotoviť EÚ vyhlásenie o zhode, ktoré potvrdzuje, že umelá inteligencia splnila všetky regulačné normy pred uvedením na trh v EÚ. Toto EÚ vyhlásenie zhody slúži ako dôkaz, že umelá inteligencia bola posúdená v súlade s nariadením o AI a je v súlade s predpismi na ochranu bezpečnosti a práv občanov.

Pre každú umelú inteligenciu vyhotoví poskytovateľ EÚ vyhlásenie o zhode, ktorým na seba preberá plnú zodpovednosť za splnenie všetkých regulačných pravidiel a noriem. Poskytovateľ vyhotoví EÚ vyhlásenie o zhode tak pre prípad, že posudzovanie zhody vykonal jeho interný tím, ako aj pre prípad, že posúdenie zhody vykonala notifikovaná osoba.

Súčasne musia vysokorizikové systému umelej inteligencie, ktoré majú EÚ vyhlásenie o zhode, obsahovať aj označenie CE, a ak posudzovanie zhody vykonala notifikovaná osoba, aj identifikačné číslo notifikovanej osoby.

Systémy umelej inteligencie, ktoré nedodržia vyššie uvedený postup, môžu byť z trhu stiahnuté a ich prevádzkovatelia môžu čeliť sankciám

 

Povinnosti spojené s modelom umelej inteligencie na všeobecné účely

Model umelej inteligencie na všeobecné účely je taký model, ktorý má významnú všeobecnú povahu a je schopný kompetentne vykonávať širokú škálu odlišných úloh a ktorý možno integrovať do rôznych systémov alebo aplikácií.

Poskytovatelia modelov umelej inteligencie na všeobecné účely majú podľa nariadenia o AI osobitné povinnosti, napríklad:

  • vypracovať a aktualizovať technickú dokumentáciu modelu vrátane procesu jeho trénovania, testovania a výsledkov jeho hodnotenia;
  • vypracovať, aktualizovať a sprístupniť informácie a dokumentáciu osobám, ktoré majú v úmysle integrovať model umelej inteligencie na všeobecné účely do svojich systémov umelej inteligencie. Tieto informácie a dokumentácia musia umožniť dobre pochopiť možnosti a obmedzenia modelu umelej inteligencie na všeobecné účely.
  • zaviesť politiku dodržiavania práva Únie v oblasti autorského práva a s ním súvisiacich práv, najmä s cieľom identifikovať a dodržiavať výslovné vyhradenie práv podľa článku 4 ods. 3 smernice (EÚ) 2019/790, a to aj prostredníctvom najmodernejších technológií;
  • vypracovať a zverejniť dostatočne podrobné zhrnutie obsahu použitého na trénovanie modelu umelej inteligencie na všeobecné účely podľa vzoru.

Povinnosti podľa bodu (i) a (ii) sa nevzťahujú na poskytovateľov modelov umelej inteligencie, ktoré:

  • sa vydávajú na základe bezplatnej licencie s otvoreným zdrojovým kódom, ktorá umožňuje prístup k modelu, jeho používanie, úpravu a distribúciu, a ktorých
  • parametre vrátane váh, informácií o architektúre modelu a informácií o používaní modelu sú verejne dostupné.

Pre poskytovateľov modelov umelej inteligencie na všeobecné účely so systémovým rizikom platia ešte nasledovné pravidlá:

  • vykonávať hodnotenie modelu v súlade s normalizovanými protokolmi a nástrojmi odrážajúcimi aktuálny stav vývoja, vrátane vykonávania a zdokumentovania testovania modelu na nepriateľské útoky s cieľom identifikovať a zmierniť systémové riziká;
  • posudzovať a zmierňovať prípadné systémové riziká na úrovni Únie vrátane ich zdrojov, ktoré môžu vyplývať z vývoja, uvádzania na trh alebo používania modelov umelej inteligencie na všeobecné účely so systémovým rizikom;
  • sledovať relevantné informácie o závažných incidentoch a možných nápravných opatrenia na ich riešenie, dokumentovať ich a bez zbytočného odkladu ich oznámiť úradu pre AI a v prípade potreby vnútroštátnym príslušným orgánom;
  • zabezpečiť primeranú úroveň kyberneticko-bezpečnostnej ochrany modelu umelej inteligencie na všeobecné účely so systémovým rizikom a fyzickú infraštruktúru modelu.

 

Povinnosti spojené s inými umelými inteligenciami (inými ako vysokorizikové umelé inteligencie a modely umelej inteligencie na všeobecné účely)

Nariadenie o AI, okrem regulácie vysokorizikových umelých inteligencií a modelov umelej inteligencie na všeobecné účely, prináša aj niekoľko povinností pre ostatné umelé inteligencie.

Pre ostatné umelé inteligencie platia tieto pravidlá:

  • ak je umelá inteligencia určená na priamu interakciu s fyzickými osobami, musia byť tieto fyzické osoby informované o tom, že používajú umelú inteligenciu;
  • ak umelá inteligencia generuje zvukový, obrazový alebo textový obsah, takýto zvukový, obrazový alebo textový výstup musí byť čitateľne označený ako umelo vygenerovaný alebo upravený. Súčasne musí byť možné zistiť, že takýto výstup bol umelo vygenerovaný alebo upravený. Neplatí to však pre umelé inteligencie, ktoré vykonávajú iba pomocnú funkciu pri redakčných úpravách alebo ak podstatne nemenia údaje, ktoré sa použili ako vstup do umelej inteligencie.
  • subjekt, ktorý nasadzuje umelú inteligenciu na rozpoznávanie emócií alebo na biometrickú kategorizáciu, je povinný o tom informovať fyzické osoby, ktoré sú tejto umelej inteligencii vystavené;
  • subjekt, ktorý nasadzuje umelú inteligenciu, ktorá generuje alebo manipuluje obrazový, zvukový alebo video obsah (deep fake), je povinný zverejniť, že obsah bol umelo vytvorený alebo upravený;
  • subjekt, ktorý nasadzuje umelú inteligenciu, ktorá generuje alebo upravuje text uverejnený s cieľom informovať verejnosť, je povinný zverejniť, že text bol umelo vygenerovaný alebo upravený. To neplatí, ak vygenerovaný alebo upravený text prešiel procesom ľudskej alebo redakčnej kontroly a ak za jeho uverejnenie nesie redakčnú zodpovednosť právnická alebo fyzická osoba.

Všetky informácie a oznámenia uvedené vyššie sa pritom musia poskytnúť jasným a rozlíšiteľným spôsobom, a to najneskôr v čase prvej interakcie fyzickej osoby s umelou inteligenciou alebo v čase, kedy je fyzická osoba prvýkrát vystavená umelej inteligencii.

 

Technologicky neutrálna a rizikovo orientovaná regulácia

Nariadenie o AI bolo vytvorené tak, aby bolo technologicky neutrálne, čo znamená, že sa vzťahuje na všetky systémy umelej inteligencie bez ohľadu na to, či sú postavené na súčasných alebo budúcich technológiách.

Súčasne je nariadenie o AI rizikovo orientované, čo znamená, že sa sústreďuje najmä na tie systémy umelej inteligencie, ktoré predstavujú najväčšie riziká pre ľudské práva a bezpečnosť. Niektoré typy umelej inteligencie sú priamo zakázané, ako napríklad systémy používané na social scoring, biometrickú identifikáciu v reálnom čase na verejných priestranstvách či umelé inteligencie využívajúce podprahové techniky ovplyvňovania.

Všetky systémy umelej inteligencie musia spĺňať požiadavky na bezpečnosť, transparentnosť a zodpovednosť, a to najmä v prípadoch, keď môžu mať vážny dopad na zdravie alebo základné práva.

Súčasné právne pravidlá aplikovateľné na umelú inteligenciu

Aj keď je regulácia umelej inteligencie relatívne nová, mnohé súčasné právne predpisy, ktoré už existujú v právnych poriadkoch členských štátov, sa budú aplikovať aj na umelú inteligenciu. Umelá inteligencia ako technologický fenomén totiž vstupuje do vyspelého právneho rámca, ktorý už obsahuje rôzne právne inštitúty, napríklad:

  • Náhradu škody: Ak umelá inteligencia spôsobí škodu, bude sa aplikovať právny režim náhrady škody, ktorý už existuje. Napríklad, ak výstup z umelej inteligencie spôsobí finančnú stratu alebo poškodenie majetku, poškodený má právo požadovať náhradu škody podľa platných pravidiel.
  • Ochranu pred nekalosúťažným konaním: umelá inteligencia môže byť použitá na vytváranie falošných alebo manipulovaných informácií, ako napríklad deepfake videá, ktoré môžu poškodiť konkurenčné subjekty na trhu. Právne predpisy o nekalej súťaži, ktoré už existujú, sa preto budú aplikovať aj na prípady, keď je umelá inteligencia zneužitá na nekalosúťažné praktiky.
  • Ochranu pred manipuláciou s trhom: V oblasti finančných trhov bude umelá inteligencia a jej používanie spadať pod existujúce predpisy, ktoré sa týkajú manipulácie s trhom a iných foriem zneužívania trhových mechanizmov. Systémy umelej inteligencie, ktoré by napríklad mohli ovplyvňovať finančné trhy či hodnotu aktív, budú podliehať reguláciám zameraným na ochranu integrity trhov.

Vďaka týmto existujúcim právnym nástrojom sa poskytuje dodatočná ochrana pred rizikami, ktoré prináša používanie umelej inteligencie, aj bez toho, aby bolo nutné vytvárať úplne nové legislatívne mechanizmy.

 

Smernica o mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú umelou inteligenciou

Okrem samotného nariadenia o AI pripravuje EÚ aj smernicu o mimozmluvnej občianskoprávnej zodpovednosti za škodu spôsobenú umelou inteligenciou. Táto smernica je kľúčovým dokumentom, ktorý upraví pravidlá zodpovednosti v prípadoch, keď škodu spôsobí umelá inteligencia.

Smernica stanovuje, že poskytovatelia umelej inteligencie budú mať povinnosť predkladať súdu dôkazy v prípadoch, keď umelá inteligencia spôsobí škodu, a to najmä v prípadoch, ak tieto dôkazy neboli predložené poškodenému. Navyše zavádza koncept vyvrátiteľnej domnienky, ktorá predpokladá príčinnú súvislosť medzi pochybením poskytovateľa umelej inteligencie a škodou spôsobenou jej výstupom, najmä v prípadoch vysokorizikovej umelej inteligencie. Pri bežných systémoch umelej inteligencie sa táto domnienka uplatní len vtedy, ak súd uzná, že pre poškodeného je priveľmi náročné dokázať príčinnú súvislosť.

Cieľom tejto smernice je zabezpečiť, aby poškodení mali jednoduchší prístup k spravodlivosti v prípadoch, keď ku škode došlo používaním umelej inteligencie, a aby poskytovatelia týchto technológií niesli adekvátnu zodpovednosť za ich používanie.

 

Pripravované zmeny a implementácia

Hoci nariadenie o AI bolo prijaté, jeho úplná aplikácia sa bude realizovať postupne v priebehu nasledujúcich rokov. Niektoré časti, ako napríklad prísne zákazy určitých systémov umelej inteligencie, nadobudnú účinnosť už od februára 2025, zatiaľ čo iné, zložitejšie regulácie, sa budú uplatňovať od roku 2026 a neskôr.

Pre podnikateľov, vývojárov a používateľov umelej inteligencie v EÚ to znamená, že sa musia začať pripraviť na implementáciu týchto pravidiel, aby mohli naďalej využívať tieto technológie v súlade s právom.

 

Záver

Súčasná právna regulácia umelej inteligencie v EÚ predstavuje prvý krok k vytvoreniu bezpečného a zodpovedného rámca pre jej používanie.

Tým, že sa zameriava na technologickú neutralitu a rizikovú orientáciu, umožňuje adaptáciu na rýchlo sa meniaci svet umelej inteligencie a zároveň chráni základné práva občanov.

Súčasné právne pravidlá, ktoré už v právnom poriadku existujú, ako náhrada škody, ochrana pred nekalosúťažným konaním či manipuláciou s trhom, poskytujú dodatočnú istotu a ochranu, čo ešte viac upevňuje istotu pri používaní umelej inteligencie. Navyše je pripravovaná aj smernica o mimozmluvnej zodpovednosti, ktorá zabezpečí, že škody spôsobené umelou inteligenciou budú mať jasné a spravodlivé pravidlá odškodnenia.

V prípade, ak máte záujem o právne služby súvisiace s AI, tak sa obráťte na našu advokátku kanceláriu a náš tím advokátov Vám rád poskytne užitočné informácie a právnu pomoc v oblasti AI.

More Law
Less problems