Liela daļa no mums, visticamāk, ir redzējusi populāro filmu The Social Dilemma, kas ir lielisks pašreizējās digitālās ēras un tās spēles noteikumu spogulis. Filmā uzskatāmi atainots, cik daudzos veidos ar dažādām tehnikām un instrumentiem tiek izmantots mākslīgais intelekts, kaut gan īstenībā tiesisks regulējums par šāda intelekta pielietošanu vēl nav izstrādāts. Kur tad ir tā robeža, ko nedrīkst pārkāpt? Kādus mākslīgā intelekta elementus uzņēmējdarbībā, valsts pārvaldē, sabiedriskajos medijos un sociālajos tīklos drīkst izmantot un kādus ne? Ko drīkst darīt un ko ne? Tas ir ļoti pozitīvi, ka tuneļa galā beidzot redzama vismaz kaut kāda gaisma. Par šo jautājumu – ka ir nepieciešams mākslīgā intelekta regulējums – ES varas gaiteņos tika diskutēts ļoti ilgi, un pašlaik ir atbalsts regulējuma tapšanai. Ir panākts tas, ka beidzot sākts darbs un jau pieejami melnraksti.
Kāds labums no tā būs mums?
Mākslīgais intelekts pašlaik skar ikvienu dzīves jomu, ikvienu cilvēku, iestādi un uzņēmumu. Līdz ar to skaidri spēles noteikumi ir nepieciešami ikvienam. Piemēram, studentam, kas mācās IT studiju programmā, Mākslīgā intelekta regula palīdzēs saprast, kas ir mākslīgais intelekts, kā to drīkst izmantot un kādi ir tā pielietošanas ierobežojumi. Tie beidzot būs skaidri “spēles noteikumi”.
Ar mākslīgā intelekta definējumu arī bizness varēs saprast, kā var “iedarbināt” mākslīgo intelektu un kādu labumu tas var dot. Dokuments pēdējoreiz atjaunots 2021. gada jūnijā, drīzumā tas jau tiks finalizēts. Atbilstoši ES stratēģijai par datiem, regulā būs noteikts, kādus datus drīkstēs iegūt no valstiskām organizācijām un kādus – no publiski pieejamiem avotiem, tālākai izmantošanai mākslīgā intelekta vajadzībām.
Vērtīga informācija statistikai un zinātnei
Ir daudz piemēru tam, kā mākslīgā intelekta dati varētu tikt izmantoti vērtīgas informācijas iegūšanai. Tā, piemēram, sabiedriskajā transportā ir uzstādītas vairākas kameras, kas domātas satiksmes negadījumu fiksēšanai. Šīs kameras fiksē datus, kas var būt ļoti vērtīgi dažādu statistikas datu ieguvei apkopotā veidā. Cilvēki, gaidot sabiedrisko transportu vai braucot ar to, ekrānos vai viedierīcēs varētu aplūkot mākslīgā intelekta sagatavotos datus par transporta un cilvēku paredzamo plūsmu, par sastrēgumiem ceļā. Viņi tādā veidā, piemēram, varētu uzzināt, ka pirmdienās ar sabiedrisko transportu parasti vairāk brauc vīrieši (72%) nekā sievietes. Līdz šim šādus datus nedrīkstēja izmantot, jo nebija aprakstīts, kā un vai tos vispār drīkst izmantot un pēc kādas metodes.
Cits piemērs. Cilvēki stāv sabiedriskā transporta pieturā, kur piebrauc autobuss. Ar kameru palīdzību, izmantojot mākslīgā intelekta risinājumus, varētu šiem cilvēkiem norādīt, ka tie stāv pārāk tuvu cits citam un ka jāievēro divu metru distance. Tiek nolasīta pieturā stāvošo cilvēku atrašanās vieta (nezinot/nefiksējot ne vārdus, ne uzvārdus) un šo grupu uzrunā, lai nestāv tik tuvu cits citam. Piemēram, ar viedzīmēm zaļš vai sarkans. Pagaidām šādi nedrīkst darīt. Regula varētu risināt dažādus šāda veida gadījumus.
Ja raugāmies uz valsts numura zīmēm, arī tās nedrīkst brīvi apkopot, izmantojot mākslīgā intelekta pieejas. Piemēram, visas dienas garumā Rīgā pa Cēsu ielu brauc dažnedažādas mašīnas. Tās tiek fiksētas – krāsa, valsts numurs, vai mašīnā sēž viens vai četri cilvēki u.tml. Līdz šim nav aprakstīts, vai šādus datus var izmantot, piemēram, zinātnes labā.
Vēl viens piemērs. Latvijā ir daudz vērtīgu statistikas datu, kuri apkopoti, izmantojot mākslīgo intelektu, taču nav likumīgu tiesību tos iedot kādam citam, piemēram, kādai no kaimiņvalstu institūcijām, lai tādā veidā varētu veidot kopīgu zināšanu bāzi, izmantojot mākslīgā intelekta paņēmienus. Tas uzlabotu dažādu izpētes procesu attīstību un veicinātu zināšanu pārnesi
Izvairoties no iedzīvotāju vērtēšanas un biometrisko datu atpazīšanas
Mākslīgā intelekta regulā būs aizliegta “iedzīvotāju vērtēšana”. To savā atzinumā atbalsta arī EESK. Komiteja iesaka iedzīvotāju vērtēšanas aizliegumu attiecināt arī uz privātām organizācijām un daļēji publiskām iestādēm, nevis tikai publiskām iestādēm. Eiropas Savienībā nedrīkst notikt tās iedzīvotāju uzticamības vērtēšana, ņemot vērā viņu sociālo uzvedību vai personību raksturojošas iezīmes, neatkarīgi no tā, kas izvērtēšanu veic. Pretējā gadījumā ES radītu iespēju atļaut iedzīvotāju vērtēšanu vairākās jomās, piemēram, darbavietā, līdzīgi kā tas tiek pieļauts, piemēram, Ķīnā.
Tāpat izskan aicinājums aizliegt mākslīgā intelekta izmantošanu automātiskai biometrisko datu atpazīšanai publiski un privāti pieejamās vietās, izņemot ļoti īpašus gadījumus. Komisija savā atzinumā arī iesaka noteikt trešo pušu atbilstības novērtējumus par obligātu visam augsta riska mākslīgajam intelektam, kā arī iekļaut sūdzību un pārsūdzības mehānismu organizācijām un pilsoņiem, kuri cietuši no jebkuras mākslīgā intelekta sistēmas kaitējuma.
Atbilstoši tās jau sen atbalstītajai “cilvēka-pavēlnieka” pieejai mākslīgajam intelektam, EESK stingri iesaka regulā paredzēt noteiktu lēmumu pieņemšanu atstāt tikai kā cilvēku prerogatīvu (to izlemj pats cilvēks, nevis mākslīgais intelekts). Cerēsim, ka Mākslīgā intelekta regula piedzīvos raitu turpmāko izstrādes gaitu un stāšanos spēkā jau drīzumā.
https://ir.lv/2022/01/19/maksliga-intelekta-regula-finisa-taisne/