Kā tiks regulēts Mākslīgais intelekts?
Autore: Stella Kaprāne – Juriste, Latvijas Universitātes Juridiskās fakultātes doktorante, lektore.
2025. gadā plānots pabeigt Eiropas Savienības Mākslīgā Intelekta tiesisko regulējumu, kas paredz ieviest MI tehnoloģiju uzraudzību, sistēmu auditēšanu, monitorēšanu, nosakot uzraugošās iestādes, kam tiks piešķirtas pilnvaras uzlikt administratīvos sodus pārkāpumu gadījumā un īstenot citas darbības Eiropas Savienībā.
2023. gada 14. jūnijā Eiropas Savienības (ES) Parlaments apstiprināja Mākslīgā intelekta akta (regulas) priekšlikuma projektu, un, ja tas tiks pieņemts (plānots 2025. gadā), tad tas regulēs mākslīgā intelekta izmantošanu pakalpojumu sniedzējiem un lietotājiem attiecībā uz ES, tādējādi radot “Briseles efektu”, saskaņā ar kuru regulas noteikumi būs jāievēro arī uzņēmumiem, kas atrodas un ir dibināti ārpus ES un Eiropas Ekonomiskās zonas (EEZ), ja tiek sniegti pakalpojumi ES/EEZ teritorijai vai tās pilsoņiem. Regulējums neattieksies uz trešo valstu publiskā sektora iestādēm un starptautiskām organizācijām, ja darbība notiek tādu starptautisku nolīgumu ietvaros, kas noslēgti valstu vai ES līmenī tiesībaizsardzības un tiesu iestāžu sadarbības nolūkā.
Regulas pieņemšana veicinās mākslīgā intelekta sistēmu uzticamu izmantošanu, ierobežojot atļautos mākslīgā intelekta sistēmu izmantošanas veidus, ieviešot aizliegumus attiecībā uz noteiktām mākslīgā intelekta sistēmām, piemēram, biometrisko sistēmu izmantošanu publiskās vietās, emociju atpazīšanas un prognozējošo uzraudzības sistēmu izmantošanu.
Regulējuma mērķis ir uzlabot iekšējā tirgus darbību, nosakot vienotu tiesisko regulējumu, it īpaši mākslīgā intelekta izstrādei, laišanai tirgū un izmantošanai. ES Komisija vēlas un plāno:
- nodrošināt, ka ES tirgū laistās un izmantotās mākslīgā intelekta sistēmas ir drošas un atbilst pašreizējiem tiesību aktiem par personu tiesībām un ES vērtībām, tostarp, pamattiesību aizsardzības kontekstā;
- nodrošināt juridisko noteiktību, lai veicinātu ieguldījumus mākslīgā intelekta attīstībā un ar to saistītajās inovācijās;
- uzlabot pārvaldi un to pašreizējo mākslīgā intelekta sistēmām piemērojamo tiesību aktu efektīvu izpildi, kuros noteiktas pamattiesības un drošuma prasības;
- veicināt ES vienotā tirgus attīstību likumīgiem, drošiem un uzticamiem mākslīgā intelekta sistēmu lietojumiem un novērst tirgus sadrumstalotību.
Mākslīgā intelekta akta priekšlikums piedāvā horizontālu pieeju mākslīgā intelekta sektora regulējumam, kas aprobežojas ar minimālajām nepieciešamajām prasībām ar mākslīgo intelektu saistīto risku un problēmu risināšanai, nepamatoti neierobežojot un nekavējot tehnoloģiju attīstību un citādā veidā nesamērīgi nepaaugstinot mākslīgā intelekta risinājumu tirgū laišanas izmaksas. Tiks noteikti saskaņoti noteikumi mākslīgā intelekta sistēmu izstrādei, laišanai tirgū un izmantošanai ES.
Regula noteiks obligātās prasības mākslīgā intelekta sistēmu projektēšanai un izstrādei pirms to laišanas tirgū, kas tiks precizētas caur saskaņotiem tehniskajiem standartiem, un attieksies arī uz mākslīgā intelekta sistēmu darbību pēc to laišanas tirgū – šādi ar regulas palīdzību dalībvalstu regulējuma ietvaros tiks saskaņots veids, kā tiks veikta pēckontrole pēc mākslīgā intelekta sistēmu laišanas apgrozībā un nodošanas ekspluatācijā.
Regulas priekšlikums, tostarp, paredz:
- noteikumus par mākslīgā intelekta sistēmu laišanu tirgū, nodošanu ekspluatācijā un izmantošanu;
- noteiktas mākslīgā intelekta prakses aizliegumus;
- prasības augsta riska mākslīgā intelekta sistēmām;
- saskaņotus pārredzamības noteikumus par mākslīgā intelekta sistēmām, kas paredzētas saskarsmei ar fiziskām personām;
- tirgus kontroles un uzraudzības noteikumus.
Regulas priekšlikums skars:
- subjektus, kas ES tirgū laiž vai nodod ekspluatācijā mākslīgā intelekta sistēmas;
- ES esošu mākslīgā intelekta sistēmu lietotājus (tostarp, kā sistēmu lietotājus – arī parētētājus);
- mākslīgā intelekta sistēmu sagādātājus un lietotājus, kas atrodas trešajā valstī, ja sistēmas izmanto ES ietvaros (vai tās vērstas uz ES iedzīvotājiem).
Trīs riska kategorijas
Mākslīgā intelekta sistēmas tiks iedalītas 3 riska kategorijās:
- nepieņemama riska (aizliegtas, piemēram, sociālās vērtēšanas sistēmas, sistēmas, kas pēta un mērķē uz noteiktu sociālo grupu ievainojamības iespēju, u. c.),
- augsta riska (ierobežota un stingri reglamentēta izmantošana, piemēram, civilās aviācijas drošībā, medicīnas nozarē, kritiskās infrastruktūras darbībā, u.c.)
- ierobežota riska kategorija (sistēmas, kas tieši mijiedarbojas ar cilvēkiem – tērzēšanas roboti, mākslīgā intelekta tulkošanas sistēmas, u. c.).
Regula īpaši skars augsta riska mākslīgā intelekta sistēmas
Par augsta riska mākslīgā intelekta sistēmām topošās regulas izpratnē tiek uzskatītas tādas sistēmas, kurām ir ievērojama kaitējoša ietekme uz personu veselību, drošību un pamattiesībām ES, un būs pienākums obligāti kā augsta riska sistēmas klasificēt tās mākslīgā intelekta sistēmas, ko kompetentajās publiskā sektora iestādēs, kurām uzticēti pienākumi migrācijas, patvēruma un robežkontroles pārvaldības jomā, kas izstrādātas nolūkā noteikt fiziskas personas emocionālo stāvokli, novērtēt noteiktus riskus, kurus rada fiziskas personas, kas ieceļo dalībvalsts teritorijā vai piesakās vīzai vai patvērumam, u.c.
Pirms laišanas tirgū attiecībā uz augsta riska mākslīgā intelekta sistēmām jāveic šo sistēmu atbilstības novērtēšana un jāievieš, jādokumentē un jāuztur riska pārvaldības sistēma. Augsta riska sistēmas testē, lai noteiktu vispiemērotākos riska pārvaldības piemērošanas pasākumus. Savukārt augsta riska mākslīgā intelekta sistēmas, kurās izmanto metodes, kas saistītas ar modeļu apmācību ar datiem, jāizstrādā, pamatojoties uz apmācību, validēšanas un testēšanas datu kopām.
Augsta riska mākslīgā intelekta sistēmas būs jāmarķē ar zīmi “CE”.
Tehniskās dokumentācijas sagatavošana
Sistēmas, ko izmanto fizisku personu kredītnovērtējuma vai kredītspējas izvērtēšanai, klasificē kā augsta riska sistēmas, ņemot vērā, ka tās nosaka minēto personu piekļuvi finanšu resursiem vai tādiem būtiskiem pakalpojumiem kā mājoklis, elektroenerģija un telesakaru pakalpojumi, darba tiesiskās attiecības, it īpaši, jo pastāv ievērojams risks, ka tās var izraisīt personu vai grupu diskrimināciju sabiedrības locekļiem to dzīves nodrošināšanai nozīmīgās jomās. Augsta riska mākslīgā intelekta sistēmas būs jāprojektē un jāizstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot, un būs jāpievieno lietošanas instrukcija piemērotā digitālā formātā. Pirms augsta riska mākslīgā intelekta sistēmas laišanas tirgū vai nodošanas ekspluatācijā būs jāsagatavo šīs sistēmas tehnisko dokumentāciju, un to regulāri jāatjaunina un tās būs jāprojektē un jāizstrādā, paredzot iespējas, kas ļauj automātiski reģistrēt notikumus (“žurnāldatnes” – logging entries) visā laika posmā, kamēr šīs sistēmas darbojas.
Sistēmas pārredzamība
Augsta riska mākslīgā intelekta sistēmas būs jāprojektē un jāizstrādā tā, lai nodrošinātu, ka to darbība ir pietiekami pārredzama, lai lietotāji varētu interpretēt sistēmas iznākumus un tos pienācīgi izmantot. Būs jāpievieno lietošanas instrukciju piemērotā digitālā formātā. Pirms augsta riska mākslīgā intelekta sistēmas laišanas tirgū vai nodošanas ekspluatācijā sagatavo šīs sistēmas tehnisko dokumentāciju, to regulāri atjauninot.
Ierobežota riska (3. kategorijas) sistēmas ir pilnībā atļautas, tomēr ievērojot pārredzamības pienākumu – informējot lietotājus par to, ka tiek izmantota mākslīgā intelekta sistēma.
Augsta riska mākslīgā intelekta sistēmām, kas rada ievērojamus riskus personu veselībai un drošībai vai pamattiesībām, būs jāatbilst obligātu horizontālo uzticama mākslīgā intelekta prasību kopai un jāizpilda atbilstības novērtēšanas procedūras, pirms šīs sistēmas varēs laist apgrozībā ES tirgū. Tas nozīmē, ka sistēmas sagādātājam būs rakstiski jāsagatavo ES atbilstības deklarācija katrai mākslīgā intelekta sistēmai un jāglabā to tā, lai valsts kompetentajām iestādēm tas būtu pieejams vēl 10 gadus pēc mākslīgā intelekta sistēmas laišanas tirgū vai nodošanas ekspluatācijā.
Augsta riska mākslīgā intelekta sistēmas laišanas tirgū vai nodošanas ekspluatācijā sagādātājs vai attiecīgā gadījumā pilnvarotajam pārstāvim būs jāreģistrē konkrētā sistēma.
Nodrošināšanās pret riskiem
Regulas priekšlikuma subjektiem būs jānodrošina sistēmu tehniskā noturība – tām būs jābūt noturīgām pret riskiem, kas ir saistīti ar sistēmas ierobežojumiem (piemēram, kļūdas, nepilnības, neatbilstības, negaidītas situācijas), kā arī pret ļaunprātīgām darbībām, kuras var apdraudēt mākslīgā intelekta sistēmas drošību un izraisīt kaitējošu vai citādi nevēlamu sistēmas darbību. Sistēmas izstrādātājam būs jāizveido stabila kvalitātes vadības sistēma, jānodrošina nepieciešamās atbilstības novērtēšanas procedūras, jāizstrādā dokumentācija un jāizveido spēcīga uzraudzības sistēma pēc programmas laišanas apgrozībā.
Tiks noteikti pienākumi arī minēto sistēmu sagādātājiem un lietotājiem ar mērķi garantēt drošību un esošo ar pamattiesību aizsardzību saistīto tiesību aktu ievērošanu visā mākslīgā intelekta sistēmu darbības periodā. Mākslīgā intelekta regulā galvenie regulējumi ietver mākslīgā intelekta sistēmu pakalpojumu sniedzēju pienākumu atklāt mākslīgā intelekta ģenerētā satura mācību datu kopsavilkumu, kiberdrošības uzraudzību, nodrošinot sistēmas lietotāju pamattiesību aizsardzību, kā arī mākslīgā intelekta programmatūras lietotāju informēšanu par to, ka tiek izmantots mākslīgais intelekts.
Tādējādi daži no pakalpojumu sniedzēju pienākumiem pārklāsies ar digitālo pakalpojumu regulu (Eiropas Parlamenta un Padomes 2022. gada 19. oktobra Regula (ES) Nr. 2022/2065), ar kuru ES ietvaros tiek izveidots vienots ES digitālā vienotā tirgus regulējums.
Ņemot vērā mākslīgā intelekta vērtības ķēdes sarežģītību, trešajām personām, kuras ir iesaistītas programmatūras, programmatūras rīku un sastāvdaļu, iepriekš apmācītu modeļu un datu tirdzniecībā un piegādē, vai tīkla pakalpojumu sniedzējiem vajadzības gadījumā būs jāsadarbojas ar sagādātājiem un lietotājiem, lai ļautu tiem nodrošināt mākslīgā intelekta sistēmu atbilstību. Pirms darīt savas mākslīgā intelekta sistēmas pieejamas ES plašākai publikai, ja importētāju nevarēs identificēt, ārpus ES iedibinātiem sagādātājiem ar rakstisku pilnvaru būs jāieceļ ES ietvaros īpaši pilnvarots pārstāvis. Pēc sistēmas laišanas apgrozībā pēctirgus uzraudzības sistēmas pamatā ir sistēmas izstrādātāja īstenotais pēctirgus uzraudzības plāns.
Priekšlikums neskar Vispārīgo datu aizsardzības regulu ((ES) Nr. 2016/679) un Tiesībaizsardzības direktīvu ((ES) Nr. 2016/680) un papildina tās ar saskaņotu noteikumu kopumu, kas attiecas uz dažu augsta riska mākslīgā intelekta sistēmu projektēšanu, izstrādi un izmantošanu, un ierobežojumiem attiecībā uz dažiem biometriskās tālidentifikācijas sistēmu lietojumiem. Attiecībā uz augsta riska mākslīgā intelekta sistēmām, kuras ir produktu drošības sastāvdaļas, šis priekšlikums tiks integrēts esošajos ar drošumu saistītajos nozares tiesību aktos – piemēram, Preču un pakalpojumu drošības likumā Latvijā (attiecībā uz patērētājiem domāto produkciju).
Kontrole un soda piemērošana
ES līmenī plānots izveidot Eiropas Mākslīgā intelekta padomi, dalībvalstīs – kontroles funkcijas attiecībā uz AI akta pienākumu kontroli veiks nacionālās fizisko personu datu aizsardzības iestādes.
Līdzīgi kā konkurences tiesību pārkāpumu gadījumā, arī mākslīgā intelekta regulējuma prasību izpildi nodrošinās administratīvo sodu sistēma – līdz pat 40 miljoniem EUR jeb 7 % no konkrētā uzņēmuma (uzņēmumu grupas) kopējā pasaules gada apgrozījuma par Mākslīgā intelekta likuma pārkāpumiem.